PrismML получила $16M за 1-битные LLM: почему сжатие убивает прогресс

Сегодня • Techmeme
PrismML вышла из стелс-режима с $16,25M инвестиций, обещая 1-битные LLM с тем же качеством за копейки. Звучит как прорыв. Но взгляните на список инвесторов — и поймёте, что это не про инновации, а про выживание.

Общепринятая мудрость: сжатие моделей — это технический прогресс. Меньше параметров, меньше вычислений, тот же результат. PrismML утверждает, что их 1-битная архитектура сжимает модели в 16 раз без потери производительности. Инвесторы в восторге — кто не хочет получить GPT-4 за цену калькулятора?

Но посмотрите глубже. Индустрия тратит миллиарды на создание моделей, а теперь тратит миллионы на их урезание. Это не оптимизация — это признание того, что мы создали монстров, которых не можем прокормить. Когда Nvidia продаёт H100 за $40,000, а электричество для обучения стоит миллионы, сжатие становится не выбором, а необходимостью.

PrismML получила SAFE и seed от фондов, которые год назад финансировали масштабирование. Те же инвесторы, что вкладывали в 'больше параметров = лучше', теперь ставят на 'меньше битов = выживание'. Wall Street Journal не случайно пишет об этом — финансовая устойчивость AI-компаний под вопросом.