Алгоритмы научились бояться: почему осторожность машин убивает инновации
Научное сообщество приветствует новую методику Softmax gradient policy для многорукого бандита — алгоритма, который учится принимать решения в условиях неопределённости. Цель благородная: минимизировать дисперсию результатов и сделать ИИ более предсказуемым. Меньше провалов, меньше хаоса, больше стабильности.
Но есть проблема: самые важные открытия в истории ИИ родились именно из хаоса и высокого риска. GPT появился из экспериментов с attention-механизмами, которые казались безумными. Свёрточные нейросети — из попыток имитировать зрительную кору, что звучало как научная фантастика. Все эти прорывы требовали высокой дисперсии результатов.
Новый подход делает алгоритмы 'консервативными инвесторами' — они предпочитают гарантированную небольшую прибыль потенциальному джекпоту. В краткосрочной перспективе это снижает потери на 15-20% по сравнению с традиционными методами. В долгосрочной — может заблокировать путь к следующему поколению ИИ.