免费安卓手游下载、分享游戏攻略、电脑硬件资讯、数码科技最新资讯
当前位置: 首页 > 硬件资讯 > Cerebras推出经济实惠的Qwen3-235B大型AI模型,支持131K上下文长度

Cerebras推出经济实惠的Qwen3-235B大型AI模型,支持131K上下文长度

时间:2025-07-12 03:55

小编:小世评选

as推出经济实惠的Qwen3-235B大型AI模型,支持131K上下文长度

在人工智能(AI)领域,技术进步正以前所未有的速度展开,特别是随着DeepSeek等领先科技公司的崛起,市场需求也在不断演变。过去几年,企业越来越关注更小型、资源消耗更低的智能模型,例如DeepSeek V2-Lite(仅有24亿参数)或Llama 4 Scout和Maverick(分别拥有170亿参数)。这些模型所展现出的性价比已经引发了广泛关注,很多企业因此认为大型、昂贵的AI模型可能并不适合自己的需求。对于那些肩负程序员角色的尤其是未来可能替代这些传统角色的模型,情况却迥然不同。

当前的AI应用不仅仅限于语音助手或文本生成,越来越多的公司正在开发复杂的代码生成器,它们需要处理更长的上下文窗口,以适应大规模代码库的需求。当前,支持高效推理和智能体功能的专家混合(MOE)模型通常体量庞大,但高昂的运营成本常常让企业望而却步——在现代GPUs上,每百万个输出Token的成本可能高达10到15美元。这种情况下,创新性的AI架构为GPU市场带来了挑战与机遇。

为了解决这一问题,Cere

as Systems宣布推出其最新的大型AI模型Qwen3-235B,该模型具备显著的优势,支持高达131K的上下文长度(约相当于200到300页文本),这意味着其上下文支持的能力是市场上大多数模型的四倍。在近期于巴黎举办的RAISE峰会上,Cere

as对这一模型进行了详细阐述。Qwen3-235B利用高效的专家混合架构,展现出了卓越的计算效率,让开发者能够高效利用这一强大模型。

更令人振奋的是,Cere

as能够以极具竞争力的价格提供这一技术:每百万输入Token和每百万输出Token仅需0.60美元的运营成本,远低于此前市场中同类闭源模型的成本。这一切颠覆了人们对于Cere

as晶圆级引擎昂贵的成见。尽管许多人质疑Cere

as为何在客户数量上没有更大突破,但这与其此前产品不支持大上下文窗口的问题有关。那些希望开发大规模代码的人,往往不愿意在32K上下文的限制之下,拆分问题。但随着Qwen3-235B的到来,这一障碍已然消失。

Cere

as Systems的首席执行官兼创始人Andrew Feldman表示:“我们注意到市场对支持长上下文的模型需求非常强烈,尤其在代码生成领域。Qwen3-235B使得我们终于能够与Claude 4和DeepSeek R1等顶级模型一争高下。”这款模型的132K上下文大幅提升了开发者在生产环境中的效率,可在短短一秒钟内得出答案,而不是在GPU上等候数分钟。

Qwen3-235B具备在处理大型代码库与复杂文档时所需的卓越推理能力,而这正是得益于其不断扩展的上下文长度——从32K提升至131K。这种增加让模型能够兼顾多个文件和成千上万行代码的处理,对代码重构、文档撰写及错误检测等功能提供有力支持。而传统的32K上下文虽然能处理简化的代码生成需求,但远不能满足日益增长的复杂性要求。

值得一提的是,除了Qwen3-235B本身的推出,Cere

as还扩展了其生态系统,得到了DataRobot、Docker、Cline与Notion等企业的支持,显示出其在AI领域的强大合作潜力。

展望未来,尽管大型AI模型一直被追求缩小与优化,市场对性能、模型体量和价格的追求不会因此停滞。伴随着技术的进步,企业对能力、准确性及智能水平的期许和跨模态功能的需求,却又推动着这些模型不断追求更大的发展。换句话说,想要追求去年的AI或者适度成就的应用,企业将会享受到低廉的成本红利,但若要紧跟时代步伐、追求最新技术,超大模型与长输入上下文将是不可或缺的选择。

这正体现了AI技术发展的双重性,既有助于基础应用的普及与推动,也为高阶应用提供了强力的支持。在这个充满机遇与挑战的时代,企业应善用新兴技术,开拓更广阔的创新之路。

精品推荐

相关文章

猜你喜欢

更多

热门文章

更多