OpenAI Safety Fellowship: почему программа безопасности ИИ превращается в PR-кампанию

Сегодня • OpenAI Blog
OpenAI запустила Safety Fellowship — программу стипендий для исследователей безопасности ИИ. Звучит благородно, пока не узнаёшь: за последние 8 месяцев компанию покинули 6 ключевых специалистов по AI Safety, включая соучредителя команды Superalignment.

Официально Safety Fellowship — это инвестиция в будущее безопасного ИИ. OpenAI обещает финансировать независимых исследователей, изучающих риски и методы контроля ИИ-систем. Индустрия аплодирует: наконец-то лидер рынка серьёзно относится к безопасности.

Но временные рамки выдают другую историю. Ян Лейке, руководивший Superalignment, покинул OpenAI в мае, заявив о недостатке ресурсов для исследований безопасности. Дэниел Кокотайло ушёл в июне, публично критикуя приоритеты компании. Уильям Сондерс — в феврале. Safety Fellowship анонсировали через три месяца после массового исхода.

Ключевая деталь: fellowship финансирует внешних исследователей, но не предоставляет доступ к моделям OpenAI. Исследователи изучают безопасность ИИ в вакууме, без данных о том, как реально работают системы GPT. Это как изучать безопасность автомобилей, не имея доступа к краш-тестам.