Ли Луда, виртуальный персонаж чат-бота на основе искусственного интеллекта, разработанного фирмой Scatter Lab (Ренхап)
Южнокорейский чат-бот на базе искусственного интеллекта приостановил свою работу после того, как он вызвал серию споров из-за его дискриминационной и вульгарной лексики, оставив уроки для всех сторон, вовлеченных в ИИ-индустрии.
Чат-бот «Ли Луда», разработанный местным стартапом Scatter Lab, был представлен в декабре прошлого года для работы в Facebook Messenger. Бот имитирует речь 20-летней женщины и привлек более 400 000 пользователей через Facebook.
Это, однако, стало предметом споров после того, как некоторые пользователи поделились способами «обучить» чат-бота сексуальным оскорблениям в отношении женщин и дискриминационными комментариями к меньшинствам на форумах.
Архитектура машинного обучения сервиса основывалась на взаимодействии пользователей, включая выражения дискриминационного характера.
Масштабы проблемы также обострились, поскольку большинство ее пользователей были подростками.
По данным Scatter Lab, подростки составляют около 85 процентов от общей пользовательской базы, а пользователи в возрасте 20 с лишним лет - около 12 процентов.
«Недавний спор вокруг Луды - это этическая проблема, возникшая из-за недостаточного понимания важности этики при работе с ИИ», - сказал Чон Чан Бэ, глава Корейской ассоциации этики искусственного интеллекта - неправительственной организации, которая исследует этику ИИ.
Чтобы предотвратить такие проблемы, разработчику следовало разработать отдельный ИИ, который может цензурировать языковые наборы данных. Но в настоящее время это невозможно из-за технических ограничений, сказал Чон.
«На данный момент как разработчикам, так и пользователям важно соблюдать этические принципы при запуске и использовании сервисов на основе ИИ», - добавил Чон.
Он отметил, что проблема с Лудой напоминает печально известный случай с Тэй (Tay) из Microsoft - чат-ботом в Twitter, который говорит как подросток.
В 2016 году Microsoft закрыла Тэй, после того как он превратился в наглого антисемита.
Чон подчеркнул, что последний инцидент должен стать тревожным сигналом для Южной Кореи, чтобы она осознала необходимость более активного участия общественности и просвещения в отношении потенциальных опасностей при работе с ИИ.
«Школьники легко увлекаются такими вещами или склонны поддаваться мнению их близких друзей», - сказал учитель начальной школы в Сеуле.
«Последняя проблема могла быть результатом обмена нескромными и неэтичными мыслями в онлайн-сообществах. Тем не менее эта проблема также может быть отражением несостоятельности как домашней дисциплины, так и государственного образования - они не могли предложить половые и политические ценности, которые ученики могли бы в противном случае придерживаться», - добавила она.
Между тем, некоторые задаются вопросом, как Scatter Lab смогла обеспечить 10 миллиардов сообщений местного мессенджера KakaoTalk для своего приложения «Science of Love». Scatter Lab привлекла внимание в отрасли своим приложением, которое анализирует степень привязанности между партнерами, отправляя реальные переписки KakaoTalk.
Комиссия по защите личной информации и Корейское агентство Интернета и безопасности объявили в понедельник, что будут расследовать, нарушила ли Scatter Lab какие-либо законы о конфиденциальности информации.
Шим Ву Хен (ws@heraldcorp.com)
Comments