移动互联网

“618”大促的风刮向大模型,科大讯飞也要“玩次大的”?

2024/5/23 14:06:00

大模型领域也有“618”大促?

近段时间,不少大模型厂商都在大放“福利”。先看向国外,5月13日,OpenAI发布新一代大模型GPT-4o,相比GPT-4 Turbo,速度提高2倍,价格降低一半。

国内厂商在价格侧的“卷势”则更加显著。前有字节跳动的豆包大模型比行业便宜99.3%,后有阿里云通义千问9款商业化和开源模型的价格大幅下调、百度文心大模型两大主力模型ERNIE Speed和ERNIE Lite全面免费。

5月22日,科大讯飞更是直接放大招,宣布讯飞星火API能力正式免费开放。其中,讯飞星火Lite API永久免费开放,讯飞星火顶配版(Spark3.5 Max)API价格低至0.21/万Tokens。

值得一提的是,当前国产大模型领域市场需求十分庞大,如《中国大模型中标项目监测报告》显示,今年1-4 月,可统计到的大模型相关中标金额已达到2023年披露金额的77%左右,涉及政务、金融、运营商、能源、教科、交通等行业,企业对大模型的应用需求持续增长。

另外,不少厂商的相关产品已形成一定规模,且市场优势显著,为何仍要选择降价?

以科大讯飞为例。B端应用上,据官网信息,讯飞星火大模型正式发布以来,已新增超过250万开发者,其中大模型直接相关的开发者数量超过47万,企业级用户超过29万,个人开发者超过18万。

C端应用上,据七麦数据,截至今年4月,讯飞星火APP在安卓平台的下载次数已经超过了9600万次,用户规模处于第一阵营;同时,在苹果App Store中,讯飞星火APP的用户评论和评分也处于国内领先地位。

此外,讯飞星火大模型对公司业务发展也具备较强的推动作用。根据科大讯飞财报,2023年,搭载讯飞星火的讯飞智能办公本、讯飞智能录音笔、讯飞智能翻译机等消费者硬件GMV同比增长84%。

可以看出,讯飞星火大模型实现了较为亮眼的阶段性成果,而在此基础上,科大讯飞为何仍决心从价格端“释放诚意”?这需要结合行业来探讨。

首先大模型厂商现阶段开拓的市场空间仍然较为有限。QuestMobile数据显示,截至今年3月,基于大模型的AIGC行业用户量为7380万,尽管同比增长了8倍,也仅占移动互联网用户量的6%。

这意味着科大讯飞等企业要想从大模型领域挖掘更多增量,仍需不断扩大产品应用规模,这种情况下,从价格侧降低产品使用门槛,显然能更快吸引受众。

此外,大模型高投入的特性,也驱使企业加速实现大模型规模化商业落地。华为大模型负责人田奇曾指出,“大模型开发和训练一次需要约1200万美元”,这反馈在业绩上就是较大的研发成本。

比如,财报显示,2023年,科大讯飞研发投入达38.4亿元,同比增长14.36%,占营收比重达19.53%;2024年一季度,在大模型研发、核心技术自主可控和产业链可控等方面,公司新增投入约3亿元。

如今,也到了投入转化为更大成果的关键时期,推行产品普惠更加势在必行。因此,有专家指出,表面来看,大模型降价是内卷的开始,但实则是激励、放量的开始。

不过,企业都推行“降价”,一定程度上也将主动权给了用户群体,当选择变多,用户必然要“优中选优”。换言之,相关企业要想从新一轮的比拼中制胜,更需彰显出强大的产品竞争力。

针对大模型产品的竞争力,阿里云智能集团资深副总裁、公共云事业部总裁刘伟光曾提出四大原则:“基础模型能力要足够领先;模型要有真正的推理资源;模型要有很多客户在使用,能够产生商业价值;大模型要是这家企业主要的业务,且企业要有足够的战略定力”。

聚焦科大讯飞来看,其还是具备一定突围底气。目前,大模型商业落地显然是公司的核心战略,董事长刘庆峰曾表示:“针对大模型的技术投入,我们该投的投,绝不手软。”而不断的投入也已形成较突出的技术成果。

根据相关测评,讯飞星火V3.5代码能力达到GPT-4 Turbo的96%,多模态理解也达到了GPT-4V的91%。另外,据悉,科大讯飞将于6月底发布讯飞星火V4.0,对标GPT-4 Turbo,语言理解、文本生成、知识问答、逻辑推理、数学能力、代码能力等七个方面或有更大升级。

总体来看,现阶段大模型领域的比拼看似转向,不再卷算法算力,而是卷价格,但结合市场需求并回归产品本身,可以发现,技术研发仍决定了入局者手中有多少筹码。



版权声明
本文仅代表作者观点,不代表贝塔立场。本文系作者授权贝塔专栏发表,未经许可,不得转载。
  • 合作伙伴

  • 官方微信
    官方微信

    新浪微博
    邮件订阅
    第一时间获取最新行业数据、研究成果、产业报告、活动峰会等信息。

扫一扫,或长按识别二维码

关注贝塔网官方微信公众号