编者按:本文来自微信公众号 量子位(ID:QbitAI),创业邦经授权转载。
刚刚在顶会ICLR作为特邀演讲(Invited Talk)中“国内唯一”的大模型玩家智谱AI,又放出了一个好消息:
现在我家的大模型开放平台,1元=1000000 tokens!
具体而言,这次价格调整的对象,是智谱AI的GLM-3-Turbo:
之前:0.005元 / 千tokens
现在:0.001元 / 千tokens
换算一下,就是1元=1000000tokens;而同样是百万tokens,ChatGPT的价格是这样的:
什么概念呢?
相当于花1元钱就能写1万条小红书(以350字计算)。
这个大动作,一下子就让智谱AI成为入门级里最便宜的那一个;而且它还特别提供用户tokens优惠计划:送!
开放平台新注册用户获赠从500万tokens提升至2500万tokens(包含2000万GLM3-Turbo和500万GLM4)。
除此之外,GLM-3 Turbo Batch批处理API进一步便宜50%——0.0005/千 tokens。
值得一提的是,这不是智谱AI第一次对价格进行调整。
早在去年10月份,它就面向开发者把调用API的价格砍掉了一个数量级。
不过有一说一,如果说大模型是AIGC时代的“商品”,那么性价比必然是一个硬指标。
所以智谱AI,用起来又如何呢?
价格便宜了,能力还上去了
没错,除了价格调整的消息之外,智谱AI官方还表示:
包括GLM-3 Turbo在内的GLM系列将迎来更新,正在部分开放测试中,即将和广大开发者和应用者见面。
至于目前的效果,我们在智谱AI大模型MaaS开放平台便可以直接体验一番。
例如在“体验中心”,我们可以先将模型设置为GLM-3-Turbo,然后问它一个专业且复杂的问题:
请你作为一名经济学的资深教授,帮助我解决一些写论文问题。我是一名经济学的学生,我想写一篇论文方向是人工智能与经济学的论文,但我不知道具体的选题方向。你能结合研究热点,给我一些有思想有深度、提供新知的选题吗? 请注意,你的回答禁止出现经济学、人工智能与经济学等词语。
不难看出,在特定领域中,GLM-3-Turbo的能力是可以做到合格上岗。
而这在智谱AI大模型MaaS开放平台还只是“开胃菜”一般的存在,主打的就是一个方方面面。
多模态大模型GLM-4就是其中之一,他可以在不牺牲任何NLP任务性能的情况下,实现视觉语言特征的深度融合。
并且已经在10余个国际标准图文评测数据集上取得SOTA。
在多模态理解方面,GLM-4可以看复杂图片并回答做多种视觉问题:
在代码能力方面,也可以让它用Python画一个爱心:
烧“脑”的逻辑推理也不在话下:
而具体到性能指标,打开方式是这样的:
在上海人工智能实验室发布的大模型开源开放评测体系司南(OpenCompass 2.0)中,GLM-4 综合排名第二,仅次于GPT-4 Turbo 。
在清华SuperBench大模型综合能力评测框架中,GLM-4与国际一流模型水平接近。
除了通用大模型之外,智谱AI的开放平台还提供术业有专攻的大模型的能力。
例如用户可以调用第二代CodeGeeX代码大模型,作为一个AI编程助手,可以实现代码生成与补全、注释生成、代码翻译等任务:
更高阶的能力,比如在IDE里针对具体代码做问答,CodeGeeX代码大模型也是可以实现:
在图像生成领域,智谱AI的开放平台在未来还将提供了CogView模型的API。
用户不仅可以用简单的自然语言Prompt来生成高质量图片:
还可以对特定图片进行“以文改图”:
除了在上述大方面的能力之外,智谱AI的开放平台在细节上针对“定制化”和“本地化”也是下足了功夫。
提供了可以完成用户意图理解、复杂指令规划以及自由调用GLM生态中多种模型能力的工具集。
不过最重要的一点是,智谱AI的开放平台在操作上也是极其的简单——就是调用一个API的事儿。
大模型,开始卷“普惠”
从上述种种能力和操作上的展示来看,智谱AI正在释放一种大模型要“卷”的新信号——普惠。
首先,最为直接的就是价格调整策略。
普惠的一个前提就是调用API的价格要做到够亲民,唯有如此才能够把市场打出去;这一点在国外大模型玩家们博弈过程中便有过体现。
在法国Mistral AI推出Mistral Large之际,它便用比GPT-4更便宜的API接口价格的“姿势”入局,在大模型性价比上给了OpenAI不小的冲击。
加上微软当时还入股了Mistral AI,不仅给钱还给算力,一度被传为“微软钦点的OpenAI备胎”。
聚焦国内,正如我们刚才提到的,智谱AI在去年10月便已经调整过一次价格,而就在上个月,阿里云也官宣核心产品大规模调整,为的也是提升市场的渗透率。
是颇有一种“得市场者得天下”的感觉了,而且就目前使用情况来看,也是得到了市场不小的认可。
据智谱AI官方数据显示:
截止目前,用户数有数十万的企业和开发者,并且在持续快速增长,过去的半年每日tokens消耗增长超过一百倍。
官方开发的三个调用工具,网页检索、函数调用以及知识库,自从 1 月上线以来调用次数已经超过3亿次。
对此,“红衣大叔”周鸿祎也给出了他的评价:
其次,在卷价格的背后,还需得有实力上的底气,毕竟对于性价比这事,“性”字是在排在“价”字之前的,只有好用才会有人买账。
在这一方面,讲真,智谱AI也是有够卷的;单是从今年的发展进程来看,智谱AI在大模型上的新研究、新进展就没有停过。
先后在 LLM、多模态、长文本、对齐、评测、推理加速、Agent 等大模型的方方面面都做出了诸多成果:
2月6日:发布让多模态模型具有操作链的CogCOM
3月8日:发布更快、更精细的文生图模型CogView3
3月30日:提出了Pre-training Loss作为语言模型“涌现能力”的指标
4月3日:在 GLM-4 中融入了RLHF技术
4月4日:提出自动网页导航的Agent,AutoWebGLM
……
不仅如此,就在昨天ICLR 2024的特邀演讲环节中,智谱AI针对通往AGI的道路规划,也亮出了自己的“三步走”——分别是发布GLM-4.5、引入GLM-OS以及GLM-zero。
总而言之,现在大模型公司要卷的不能再只是技术实力了,市场占有率、价格等因素也逐渐成为了关键的考量因素,由此方可形成普惠的一个闭环:
大模型需要用户的使用→得到反馈后优化→性能和收益的增长可让大模型更优惠→再吸引更多人来用。
不过有一说一,大模型们开始卷谁更“快、好、省”,用户们是真的赚到了。
本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。