Критика ИИ-систем: экс-работники OpenAI и DeepMind выступили с открытым письмом
Сотрудники и бывшие работники OpenAI и Google DeepMind обратились к общественности с открытым письмом, выражая обеспокоенность рисками, связанными с развитием искусственного интеллекта (ИИ). Они также просят защитить их от возможных репрессий со стороны компаний.
«Эти риски включают усиление существующего неравенства, манипуляции и дезинформацию, а также потерю контроля над автономными ИИ-системами, что потенциально может угрожать существованию человечества», — говорится в письме.
Письмо подписали 16 человек, среди которых 13 — бывшие сотрудники OpenAI, включая Джеффри Хинтона, известного как «крестный отец ИИ», который ранее работал в Google.
Авторы письма подчеркивают, что в условиях отсутствия эффективного государственного надзора компании, работающие с ИИ, должны взять на себя ответственность за прозрачную и открытую критику. Они настаивают на том, что нынешние и бывшие сотрудники таких компаний должны иметь возможность информировать общественность о возникающих проблемах.
Кроме того, авторы письма обращают внимание на давление, оказываемое на информаторов, вынужденных подписывать строгие соглашения о конфиденциальности.
Предлагаемые меры включают:
- Отказ от соглашений, подавляющих критику;
- Создание проверяемого анонимного процесса для сообщения о проблемах с ИИ;
- Поддержка культуры открытой критики, чтобы общественность, советы директоров, регуляторы и другие заинтересованные стороны своевременно узнавали о рисках коммерческих моделей ИИ;
- Исключение преследований сотрудников, которые публично делятся конфиденциальной информацией о рисках.
Ранее несколько исследователей OpenAI ушли в отставку после того, как компания распустила команду Superalignment, работавшую над долгосрочными рисками ИИ. Среди ушедших был и соучредитель OpenAI Илья Суцкевер, который занимался вопросами безопасности разработки. Ян Лейке, один из бывших исследователей, заявил, что в OpenAI «вопросы культуры и безопасности отошли на второй план, уступив место продуктам». В ответ компания сформировала новую команду по безопасности. Генеральный директор OpenAI Сэм Альтман и технический директор Грег Брокман заявили, что проблемы безопасности в ИИ-продуктах отсутствуют.