科技博主闌夕:大模型不光卷價格還要卷並發

快科技 2024-05-22 16:30:45

豆包通用模型lite-4k/32k,千tokens推理輸入售價0.3厘;通義千問qwen-long,千tokens推理輸入售價0.5厘;百度文心ERNIE Speed、ERNIE Lite,宣布免費。

針對近期的大模型降價狂潮,科技博主闌夕發文稱:行業裏說千Tokens價格,光低價還不夠,吞吐量太小的話,再便宜也用不了多少。如果只是把價格降下去,吞吐還是小水管,那真是降了個寂寞。

以下是闌夕微博主要觀點:

豆包大模型打響價格戰已經過了一個星期,山雨欲來的效果還是挺明顯的,同行要麽跟著一起降價,要麽開始寫小作文陰陽,特別熱鬧。

有比較急的,拿以前雲雀模型的限流指標和模型單元價格來算,暗戳戳說豆包實際使用價格要高。等火山引擎官網把不同版本、不同規格的銷售方案全部亮了出來,不管是預付費還是後付費都確實是擊穿地板的底價標准,瞬間打臉回去。

豆包模型定價,最值得關注的是把TPM(每分鍾token數)提到80萬,比同行(一般是10萬到30萬tokens)高幾倍。如果對話文本小,RPM(每分鍾請求數)上限1萬,能支持的並發量是同行(一般是60到120,輕量版是300到500)的幾十倍。其他大模型要不要跟?

行業裏說千Tokens價格,光低價還不夠,吞吐量太小的話,再便宜也用不了多少。如果只是把價格降下去,吞吐還是小水管,那真是降了個寂寞。

(關于免費)大模型的算力燒錢主要在訓練端,推理端的成本其實是每年都有幾十倍優化空間的。但再怎麽優化,也不可能優化到0。

足夠便宜,但依然能賺錢,由此促成應用/商用市場的規模增長,包括OpenAI在內的主流大模型開發商,都是這麽一個思路,可以不講武德,但是商業規律還是得敬畏的。

不管怎麽說,大模型toB還在做大蛋糕的階段,有更多公司一起解決企業入局的成本門檻,也都算是共贏吧。

0 阅读:1