С искусственного интеллекта снимут всякую ответственность
Оцените все риски
В России в октябре 2021 года приняли Кодекс этики искусственного интеллекта, который должен помочь установить мосты между человеческим и машинным мышлением, а также определить границы влияния ИИ на людей. Свод правил составлял Альянс в сфере ИИ при участии крупнейших IT-платформ России, представителей властей и научного сообщества.И хотя документ носит рекомендательный характер, но уже то, что он разработан с учётом мнения президента Владимира Путина и положений национальной стратегии развития ИИ, говорит о серьёзности темы и обязательности к прочтению теми, кто занимается программными разработками в этой сфере.По мнению Ирины Рукавишниковой, появление кодекса не исчерпывает проблемы использования ИИ, однако наиболее важные аспекты в документе отражены: «Основная задача законодателей, ориентируясь на принятые нормы „мягкого права“, такую специфическую регуляторику в этой части, — всё-таки отслеживать моменты, связанные с возможным нарушением прав человека. Если будет хоть малая угроза нарушения интересов личности и конституционных прав, должны устанавливаться чёткие законодательные рамки и вводиться ограничения».
Искусственному разуму хотят запретить вредительство
Главным приоритетом в развитии ИИ должна оставаться защита интересов россиян, считает Рукавишникова, а ответственность за решения компьютерного разума должен нести человек. Причём лучше бы вовсе обойтись без сбоев. А для этого участники процесса — пользователи, программисты, заказчики — должны осознавать все риски, "пропорциональные значимости и масштабам применения искусственного интеллекта«.Поэтому один из этических стандартов кодекса гарантирует сохранение персональных данных человека при использовании ИИ, напомнила сенатор.
Право поспорить с машиной
Такой подход делает применение ИИ более человечным и безопасным, считает замруководителя Аналитического центра при Правительстве, руководитель Центра экспертизы по реализации федерального проекта «Искусственный интеллект» Сергей Наквасин. "Когда разрабатывали кодекс этики, столкнулись с важным замечанием, что не существует этики искусственного интеллекта, а нужно разрабатывать этику в сфере применения ИИ, — напомнил эксперт. — Это очень важно, потому что при разработке подобных систем есть соблазн перенести ответственность за принимаемые решения на искусственный интеллект. Принятый кодекс этики однозначно говорит, что вся ответственность остаётся на человеке, который должен принимать меры, чтобы нивелировать или вовсе избежать каких-то рисков«.Поэтому в следующем году необходимо сосредоточиться на развитии системы управления этической практикой и «создать совет по этике искусственного интеллекта», предложил Наквасин. Такой орган помог бы глубже знакомиться с существующими практиками в сфере ИИ "и добиваться консенсуса при рассмотрении тех или иных этических дилемм, которые будут возникать перед разработчиками новых систем«.Читайте также:
• В России разрабатывают систему «умного земледелия» для фермеров
• Искусственный интеллект научился распознавать людей по танцу
Утверждённое в стране «мягкое право» в виде свода этических норм позволяет экспертам максимально эффективно купировать существующие и возможные будущие проблемы, связанные с ИИ, без вмешательства в законодательство. «А вот из их рекомендаций могут появиться впоследствии те или иные законодательные нормы», — отметил руководитель рабочей группы по нормативному регулированию Альянса в сфере ИИ Андрей Незнамов.В то же время он призвал не смешивать понятия. Когда сегодня говорят об искусственном интеллекте, в большинстве случаев имеют в виду прикладные технологии ИИ: навигация в смартфоне, фильтры в Instagram и так далее. Но сферы применения прикладного ИИ далеко не однородны, заметил Андрей Незнамов. Поэтому ни в одной стране мира нет закона об искусственном интеллекте.Зато уже есть этические правила, которые со временем можно совершенствовать. Ирина Рукавишникова напомнила, что в сентябре этого года Совет по развитию цифровой экономики при палате регионов рекомендовал авторам кодекса учесть ряд важных обстоятельств. В их числе: возможность участия человека в проверке того, каким образом было вынесено решение с использованием ИИ, и право его оспорить. Также следует закрепить невозможность использования доказательств, полученных с использованием ИИ, в качестве единственного основания для вынесения судебного решения.