Search any X

除了Groq以外,另一个做LLM inference超级牛逼架构的公司,叫Cerebras。 Groq打败nvidia的秘诀是把整个model放在SRAM上, Cerebras更激进,一块芯片上堆了44GB SRAM,还有1.5TB, 12TB, 1.2PB三种规格的DDR,号称支持24 trillion params的模型。 大模型时代,做architecture的终于开始发起进攻了。

粉色传媒

新用户注册最高可以免费领取100美元 每日看AV即可赚钱现金大奖 分享奖励丰厚无上限 电报:https://t.me/nicevideozh

© 2025 粉色 传媒

download

download_desc