Права для робота: как этика поможет человеку жить в мире с искусственным интеллектом
Искусственный интеллект часто вызывает у обывателя страх и недоверие. Еще в фильме Терминатор зрителю показали, что может произойти, если ИИ разовьется до определенного уровня. IT-специалисты обсудили вопросы этики и безопасности искусственного интеллекта в ходе Российского форума по управлению интернетом.
Сейчас неизвестно, считать ли искусственный интеллект субъектом или объектом права, то есть равным человеку с юридической точки зрения.
Об этом сообщил профессор Сколковского института науки и технологий, представитель России в экспертной группе ЮНЕСКО по искусственному интеллекту Максим Федоров в ходе секции "Новые технологии. Искусственный интеллект и этика" Российского форума по управлению интернетом.
Что такое ИИ?
Для начала необходимо определиться с самим термином, так как неясно, что такое ИИ, признал российский IT-специалист.
"Что мы регулируем этически? Существует более ста определений искусственного интеллекта, — констатировал ученый. — Одна из основных проблем, которые мы должны решить, — определиться с терминологией этой области.
С точки зрения технических экспертов искусственный интеллект — это некий продукт коммуникационных и информационных технологий".
Дело в том, что неопределенность понятия, облако мемов вокруг технологии ИИ создает простор для манипуляций, дополнил Федоров.
"Второй вопрос крайне важен и провоцирует полярность в его обсуждении — субъектность и объектность этих автономных интеллектуальных систем. Субъекты это или объекты права?" — задался вопросом профессор Сколковского института науки и технологий.
"Просто куча железа и коды"
В этой области сейчас идет международный и межкультурный диалог, так как в разных странах разные подходы к субъектности чего бы то ни было. Национальная комиссия по этике искусственного интеллекта ясно выразила свою позицию — пока это объект права, набор железа и кодов, сообщил российский ученый.
Третий этический вопрос относительно ИИ — так называемый доверенный искусственный интеллект. Когда мы говорим о доверии к технической технологии, это не только вопросы технической устойчивости, безопасности. Это и вопросы психологии, отметил ученый.
"В Японии запретили человекоподобных роботов, так как они вызывают отторжение и страх в силу так называемого эффекта "зловещей долины", — привел пример специалист.
Технология может быть надежной, но необходимо решить и вопрос доверия к технологии, подытожил профессор Федоров.
В свою очередь глава дирекции Совета Европы по вопросам информационного общества и борьбы с преступностью Ян Клейман признал, что искусственный интеллект и его применение могут иметь очень серьезные последствия для наших основополагающих принципов: верховенство закона, демократия и права человека.
Как любая другая технология, искусственный интеллект может быть сопряжен с рисками, так как им можно злоупотребить, пояснил Клейман. Именно поэтому Комитет министров Совета Европа создал специальную группу, которая пыталась ответить на вопрос, требуется ли подписать конвенцию по искусственному интеллекту или же будет достаточно необязательных инструментов "мягкого права".
"Эксперты пришли к выводу, что эта сфера частично отрегулирована, но существуют и пробелы, которые необходимо заполнить", — подытожил Клейман.
Этика для человека
Затем сотрудник Центра Глобальной ИТ-Кооперации МГИМО Андрей Игнатьев рассказал о разработке Российского универсального кодекса этики искусственного интеллекта.
"Идея подготовки кодекса появилась не только у нас, она зрела в сообществе, — отметил Игнатьев. — В МГИМО изучили в 2020 году все документы, написанные международными организациями, изучили этические документы крупных бизнес-компаний. Ученые обнаружили, что в некоторых моментах есть некая асимметрия, отсутствие понимания роли этики в этих процессах".
Был разработан особый подход, подчеркнул специалист. Этика изучает мораль и нравственность, которые относятся прежде всего к человеку, который участвует в жизненном цикле систем искусственного интеллекта от разработки до внедрения. Он также добавил, что разработка российского универсального кодекса этики искусственного интеллекта продолжится.