Совет Федерации поручил ряду ведомств, включая Минцифры, Минздрав и Минэкономики, разработать меры по защите прав граждан в рамках применения систем искусственного интеллекта (ИИ). Насколько действующее законодательство адаптировано к развитию технологий, разбиралась «Сфера».
«Умные технологии» уже прочно вошли в нашу жизнь. Звонок в любой банк начинается с разговора с голосовым помощником, во многих магазинах оформление онлайн-заказов происходит с помощью ботов. Использование элементов машинного обучения, ИИ и нейросетей столь широко, что некоторые технологические решения уже применяются на государственном уровне. Так, МВД собирается искать серийных убийц с помощью искусственного интеллекта, ГИБДД определяет нарушителей на дорогах, а Минсельхоз хочет использовать новые технологии для увеличения объемов производства сельхозпродукции.
Однако когда мы говорим о попытках регулирования, речь идет об ИИ, который будет создан в будущем. Это уникальная ситуация для права, считает ведущий юрист фирмы INTELLECT Михаил Хохолков. «Обычно сначала появляется технология, потом развиваются общественные отношения и право, а здесь получается, что сам искусственный интеллект еще не создан, а законодательные попытки его регулировать уже совершаются. Не исключаю, что терминология и трактовки, которые вводятся сейчас, не будут соответствовать самой технологии в будущем».
ИИ и российское право
В 2019 году президент Владимир Путин подписал указ «О развитии искусственного интеллекта в России». Документом утверждается национальная стратегия до 2030 года и вводится само понятие искусственного интеллекта. ИИ трактуют как «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека».
В постановлении указаны и принципы работы ИИ, впрочем, без особой конкретики. Среди них — «автономное решение различных задач, автоматический дизайн физических объектов, автоматическое машинное обучение, алгоритмы решения задач на основе данных с частичной разметкой и (или) незначительных объемов данных, обработка информации на основе новых типов вычислительных систем, интерпретируемая обработка данных и другие методы».
Для быстрого реагирования на новые веяния в области ИИ в марте 2021 года начал работу Экспертный совет на базе ФГУП «ГРЧЦ». Почти за год работы его члены провели пять заседаний для обсуждения технологий обработки естественного языка, регулирования искусственного интеллекта, технологии компьютерного зрения и стандартизации. Тогда же был принят кодекс этики, определивший требования, которым должны соответствовать технологии с применением искусственного интеллекта. Михаил Хохолков оценивает такие законодательные решения скорее положительно. «В текущей версии кодекса представлены основные этические нормы по использовании технологии ИИ — справедливость, прозрачность, безопасность, ответственность и конфиденциальность. На мой взгляд, этих критериев достаточно».
Младший юрист практики «Цифровое и IT-право» компании «Лемчик, Крупский и партнеры» Анна Тетерина отмечает, что сегодня искусственный интеллект чаще всего связывают с использованием данных, которые государство определяет как персональные. «В этой связи необходимо соблюсти баланс интересов — с одной стороны, обеспечить конфиденциальность переданной информации, защитить ее, с другой стороны — расширить перечень и типы открытых данных для разработчиков в сфере ИИ», — указывает эксперт.
Регулирование ИИ за рубежом
Нельзя сказать, что отечественное право в части регулирования ИИ отстает. Во всех технологически развитых странах — США, Канаде, Франции и других — оно формируется достаточно однообразно ввиду специфики самой отрасли. В настоящее время международные стандарты и требования к функционалу искусственного интеллекта не приняты, что ставит «палки в колеса», в первую очередь, разработчикам.
Анна Тетерина выделяет только одну инициативу международного уровня. «В ноябре 2021 года ЮНЕСКО приняло первые глобальные этические стандарты в сфере ИИ, которые призывают компании и государства повысить эффективность защиты персональных данных, а также вводят запрет на использование ИИ для организации массовой слежки».
Больше всего опыта в вопросе регулирования искусственного интеллекта у Китая. Михаил Хохолков вспоминает конференцию по развитию ИИ в Пекине, которая собрала экспертов со всего мира, а Анна Тетерина указывает на особенности первого кодекса этики искусственного интеллекта, созданного в КНР. «Отдельное внимание в нем уделено защите прав пользователей и сдерживанию влияния крупных технологических компаний. Технологии должны быть «управляемыми и надежными», а люди вольны самостоятельно принимать решения и выбирать, хотят они пользоваться сервисами ИИ или прекратить взаимодействие с системой в любое время», — поясняет она.
Более того, в кодексе прописано требование «о недопустимости дискриминации». Последний пункт кажется важным и для российских сервисов, однако сложно оценить, насколько подход отечественных компаний и госструктур учитывает это.
«Не должно быть смещений в сторону только женщин или только мужчин. Для налаживания работы искусственного интеллекта необходимо использовать обезличенные данные, они никому не вредят. В Европе IT-компаниям эту информацию предоставляют некоммерческие организации, выступая в качестве посредников. Мне кажется этот подход очень практичным и действенным», — добавляет управляющий партнер nlogic Анна Серебряникова.
Проблемы технологий с использованием ИИ
Мода на голосовые помощники с самообучением практически вытеснила «живых» операторов в колл-центрах: нейросети обходятся дешевле штатных сотрудников. Эти и другие похожие технологии вполне можно отнести сфере искусственного интеллекта, отмечает Анна Тетерина.
«Подобные сервисы отвечают критериям, которые прописаны в самом определении ИИ: это возможность самообучения и поиска решений, наличие комплекса технологий и сопоставимость с человеческими возможностями для решения той или иной задачи», — добавляет эксперт.
В качестве примера можно привести использование ИИ в МФЦ. Так, в 2020 году в Тюмени был запущен виртуальный консультант для общения с гражданами по стандартным вопросам, сервис местные айтишники привязали к Госуслугам. Жителям Якутии стало проще собирать документы, записываться в офисы многофункциональных центров и получать консультации по тому или иному вопросу благодаря «умному помощнику» Татьяне.
Вместе с тем необходимо помнить одну вещь: внедряя подобные технологии, важно сохранить возможность поговорить с человеком, а не машиной. Например, людям пожилого возраста или с особенностями речи и слуха банки практически «отрезали» доступ к операторам для получения консультаций. Они предлагают всем без исключения решать вопросы через «умного помощника», который, похоже, недостаточно умен.
«Если компания использует только голосовой помощник, не предоставляя возможности поговорить с оператором, нужно подавать апелляционную жалобу. При этом надо понимать, что в самой технологии нет ничего плохо. Напротив, она заметно снижает нагрузку на сотрудников колл-центров, избавляя их от необходимости обрабатывать огромное количество стандартных обращений», — поясняет Анна Серебряникова.
Реальные кейсы, в рамках которых происходит правовая «борьба» между человеком и машиной, можно пересчитать по пальцам. Михаилу Хохолкову на ум приходит, в первую очередь, дело, заявителем по которому проходила социальная сеть «ВКонтакте». Простые обыватели, добавляет он, пока не стремятся защищать свои права.
«Компания Double Data изучала профили пользователей ВК, и на основе своих выводов предлагала варианты решения для кредитных организаций — давать деньги человеку или не давать. В итоге суд встал на сторону соцсети — «ВКонтакте» защитила свое право на единоличное использование данных зарегистрированных юзеров».
Будущее юристов в сфере ИИ
Процесс над Double Data — первая ласточка в череде дел против искусственного интеллекта. Из-за наращивания использования ИИ в будущем игроки рынка и юристы продолжат искать рабочие механизмы регулирования. «Пока что юристы, специализирующиеся на искусственном интеллекте — самоучки. В ближайшие 10 лет потребность в открытии магистратур, которые будут готовить специалистов в сфере искусственного интеллекта, будет только расти. Это определенная специфика работы, которую должен понимать специально обученный человек. Сейчас подобными делами занимаются юристы с базовыми знаниями об обороте информации», — резюмирует Михаил Хохолков.
Источник изображения: Сфера