OpenAI Safety Fellowship: почему программа безопасности ИИ превращается в PR-кампанию
Официально Safety Fellowship — это инвестиция в будущее безопасного ИИ. OpenAI обещает финансировать независимых исследователей, изучающих риски и методы контроля ИИ-систем. Индустрия аплодирует: наконец-то лидер рынка серьёзно относится к безопасности.
Но временные рамки выдают другую историю. Ян Лейке, руководивший Superalignment, покинул OpenAI в мае, заявив о недостатке ресурсов для исследований безопасности. Дэниел Кокотайло ушёл в июне, публично критикуя приоритеты компании. Уильям Сондерс — в феврале. Safety Fellowship анонсировали через три месяца после массового исхода.
Ключевая деталь: fellowship финансирует внешних исследователей, но не предоставляет доступ к моделям OpenAI. Исследователи изучают безопасность ИИ в вакууме, без данных о том, как реально работают системы GPT. Это как изучать безопасность автомобилей, не имея доступа к краш-тестам.