В обновленных принципах применения искусственного интеллекта компании Google не оказалось пункта, который не позволял использовать его для вооружения и слежки за людьми.
Американская корпорация Google удалила из своих принципов разработки ИИ формулировку, предписывающую избегать применения этой технологии в потенциально опасных для человека целях, в том числе в оружии.
Раньше в разделе, посвященном ограничениям применения ИИ, говорилось о недопустимости использования технологий, которые «причиняют или могут причинить общий ущерб», включая оружие.
«Этой формулировки больше не видно на странице», – отмечает Bloomberg.
При этом представитель компании обратил внимание на публикацию в блоге Google.
«Мы считаем, что демократические страны должны быть лидерами в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека. Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны совместно работать над созданием ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», – заявила компания.
Маргарет Митчелл, которая была одним из руководителей группы Google по этике искусственного интеллекта, выразила обеспокоенность из-за изменения принципов применения ИИ. По ее мнению, это перечеркнет работу, проделанную специалистами в области этики ИИ и активистами Google.
Отмечается, что сотрудники Google давно обсуждают, как сбалансировать этические аспекты и конкуренцию техгигантов в области ИИ. Особенно после того, как запуск ChatGPT от OpenAI усилил давление на поискового гиганта.
В 2023 году некоторые работники Google высказали опасения, что стремление компании отвоевать позиции в области ИИ привело к нарушению этических норм.