Сэм Альтман покидает комитет по безопасности OpenAI

Генеральный директор OpenAI Сэм Альтман уходит из внутренней комиссии, созданной для надзора за «критическими» решениями по безопасности, связанными с проектами и операциями компании.

В своем блоге OpenAI сообщила, что комитет по безопасности и защите станет «независимой» группой под руководством профессора Карнеги-Меллон Зико Кольтера, а также включит генерального директора Quora Адама Д'Анджело, генерала в отставке армии США Пола Накасоне и бывшего исполнительного вице-президента Sony Николь Селигман. Все они уже являются членами совета директоров OpenAI.

OpenAI отметила в своем посте, что комиссия провела проверку безопасности последней модели OpenAI, о1, после того, как Альтман покинул её. Группа продолжит получать регулярные отчёты от команд по безопасности и защите OpenAI и сохранит право откладывать релизы до решения вопросов безопасности.

«В рамках своей работы комитет по безопасности и защите… продолжит получать регулярные отчёты по техническим оценкам текущих и будущих моделей, а также отчёты по мониторингу после релизов», — говорится в посте OpenAI. «Мы продолжаем совершенствовать процессы запуска моделей и практики для создания интегрированной системы безопасности с чёткими критериями успеха для запусков моделей».

Уход Альтмана из комитета по безопасности произошёл после того, как пять сенаторов США выразили беспокойство по поводу политики OpenAI в письме, адресованном Альтману этим летом. Почти половина сотрудников OpenAI, которые когда-то занимались долгосрочными рисками ИИ, покинули компанию, а бывшие исследователи OpenAI обвинили Альтмана в том, что он выступает против «реального» регулирования ИИ в пользу политики, продвигающей корпоративные цели OpenAI.

В подтверждение этого OpenAI значительно увеличила свои расходы на федеральное лоббирование, выделив $800,000 за первые шесть месяцев 2024 года по сравнению с $260,000 за весь прошлый год. Ранее этой весной Альтман также присоединился к Совету по безопасности и защите искусственного интеллекта Министерства внутренней безопасности США, который даёт рекомендации по разработке и внедрению ИИ в критическую инфраструктуру США.

Даже с уходом Альтмана мало что указывает на то, что комитет по безопасности примет трудные решения, которые серьёзно повлияют на коммерческую стратегию OpenAI. Примечательно, что в мае OpenAI заявила, что будет стремиться рассматривать «обоснованную критику» своей работы через комиссию — при этом, конечно, «обоснованная критика» зависит от восприятия.

В статье для The Economist в мае бывшие члены совета директоров OpenAI Хелен Тонер и Таша МакКолли заявили, что, по их мнению, OpenAI в её нынешнем виде не может быть надёжной в плане саморегулирования. «На основе нашего опыта мы считаем, что самоуправление не может надёжно противостоять давлению стимулов к прибыли», — написали они.

И стимулы к прибыли у OpenAI растут.

Компания, по слухам, находится в процессе привлечения более $6,5 миллиардов инвестиций в раунде финансирования, который оценит OpenAI более чем в $150 миллиардов. Чтобы заключить сделку, OpenAI, как сообщается, может отказаться от своей гибридной некоммерческой корпоративной структуры, которая была создана для ограничения доходов инвесторов с целью гарантировать, что OpenAI останется верной своей изначальной миссии: разработке искусственного общего интеллекта, который «принесет пользу всему человечеству».

0 Комментариев
Сначала популярные
Написать

Мы используем cookie-файлы для улучшения функциональности сайта и вашего взаимодействия с ним. Вы можете прочитать подробнее о cookie-файлах и изменить настройки своего браузера.