Статьи

Критика ИИ-систем: экс-работники OpenAI и DeepMind выступили с открытым письмом

Сотрудники и бывшие работники OpenAI и Google DeepMind обратились к общественности с открытым письмом, выражая обеспокоенность рисками, связанными с развитием искусственного интеллекта (ИИ). Они также просят защитить их от возможных репрессий со стороны компаний.

«Эти риски включают усиление существующего неравенства, манипуляции и дезинформацию, а также потерю контроля над автономными ИИ-системами, что потенциально может угрожать существованию человечества», — говорится в письме.

Письмо подписали 16 человек, среди которых 13 — бывшие сотрудники OpenAI, включая Джеффри Хинтона, известного как «крестный отец ИИ», который ранее работал в Google.

Авторы письма подчеркивают, что в условиях отсутствия эффективного государственного надзора компании, работающие с ИИ, должны взять на себя ответственность за прозрачную и открытую критику. Они настаивают на том, что нынешние и бывшие сотрудники таких компаний должны иметь возможность информировать общественность о возникающих проблемах.

Кроме того, авторы письма обращают внимание на давление, оказываемое на информаторов, вынужденных подписывать строгие соглашения о конфиденциальности.

Предлагаемые меры включают:

  • Отказ от соглашений, подавляющих критику;
  • Создание проверяемого анонимного процесса для сообщения о проблемах с ИИ;
  • Поддержка культуры открытой критики, чтобы общественность, советы директоров, регуляторы и другие заинтересованные стороны своевременно узнавали о рисках коммерческих моделей ИИ;
  • Исключение преследований сотрудников, которые публично делятся конфиденциальной информацией о рисках.

Ранее несколько исследователей OpenAI ушли в отставку после того, как компания распустила команду Superalignment, работавшую над долгосрочными рисками ИИ. Среди ушедших был и соучредитель OpenAI Илья Суцкевер, который занимался вопросами безопасности разработки. Ян Лейке, один из бывших исследователей, заявил, что в OpenAI «вопросы культуры и безопасности отошли на второй план, уступив место продуктам». В ответ компания сформировала новую команду по безопасности. Генеральный директор OpenAI Сэм Альтман и технический директор Грег Брокман заявили, что проблемы безопасности в ИИ-продуктах отсутствуют.

RU/KZ