大模型落地元年,腾讯混元加快落地脚步

发布时间:2024-04-24 03:52来源:证券之星阅读量:10293   

去年9月推出的腾讯混元,上线之初就强调“实用性”,从最初有超50个腾讯产品接入至今,腾讯内部已有超400个业务在内测腾讯混元。此外,腾讯混元也在零售、教育、金融和医疗等行业落地应用。

如今,随着腾讯旗下协作SaaS产品全部基于腾讯混元实现智能化升级,也意味着腾讯混元的落地脚步进一步提速。

不过从行业角度,大模型究竟如何落地并没有明确方向,各个企业也都是摸着石头过河。腾讯在产品优化以及商业模式上的思考,或许能给行业提供借鉴。

模型升级为MoE架构

此前,腾讯混元完成了架构升级,从原先的Dense架构升级为MoE架构,并将模型扩展至万亿级参数规模。

腾讯混元模型应用负责人张锋向21世纪经济报道表示,相比原有架构,MoE架构有两个优势:一是模型参数量更大,可吞吐更多tokens;二是实际激活量较小,可显著降低训练推理成本。

据其介绍,去年10月,MoE架构效果就已超过Dense架构。同年11月,腾讯混元开始把MoE上线产品内测。目前,腾讯混元已经正式完成MoE架构升级。

有技术人士向记者表示,MoE架构是一种神经网络架构,它是通过多个专家模型来处理输入数据的不同任务。

简单来说,MoE架构的核心逻辑就是将输入数据分配给最适合处理该数据的专家。而且这种架构允许模型通过增加专家的数量来扩展,从而提高了模型处理特定任务的能力。

中信证券在一份研报中指出,随着大模型体量增长,多模态能力和推理效率成为业界竞争新焦点。Dense架构在处理图像、视频等非结构化数据时效率较低,预计未来1-2年MoE等新型架构将成为主流。

在架构完成升级后,腾讯混元的能力也确实得到了提升。在今年3月份发布的财报中,腾讯提到,“在部署了MOE架构等前沿技术后,我们的基础模型混元在多轮对话、逻辑推理和数字推理领域表现出色,这些对大型语言模型来说一直是个挑战。”

而这些获得提升的模型能力,也被直接应用到了腾讯产品中。张锋表示,腾讯业务使用混元模型,主要有两种方式,一个是直接API调用,另外就是基于混元一站式平台进行精调。

目前,腾讯混元对外开放了不同尺寸的模型,以满足不同业务的需要。腾讯乐享总经理周芝芝表示,乐享在接入混元时,只有智能出题功能是基于混元进行精调,剩下的很多功能,比如智能创作、智能提炼课程知识点、智能撰写活动方案等,都是用混元公开的API能力。

商业模式有待摸索

除了乐享,腾讯的其他协作SaaS产品也都推出了一些新功能。

比如腾讯电子签提升了合同起草、审阅效率,并可以智能筛查风险;腾讯AI代码助手向开发者提供了代码补全、代码诊断、单元测试等功能;腾讯会议推出AI小助手、智能录制、实时字幕翻译等功能;腾讯文档则让用户可以通过一句话指令即可快速处理各种文档。

在与记者交流时,这些产品的负责人都表示,他们在开发相关功能时,并没有硬靠AI,而是过去业务里本身存在的大量痛点,用原来的技术解决不了,现在用大模型技术进行解决。

虽然业界都期望大模型原生产品的出现,但现阶段,改造原有产品是大模型最可行的落地路径。因为原有产品的需求是明确的,通过解决这些需求,能够加速大模型技术的普及,进而推动大模型向更高阶的智能进化。

而在商业化方面,腾讯也没有急于将大模型能力变现。周芝芝向21世纪经济报道记者表示,乐享的AI助手主要是依附在原有版本之上。“AI只是乐享能力的升级,所以AI助手的定价是基于原有版本做增值,以增购项的方式来设计”。

比如现在乐享的收费模式是license方式,即按照每人每年多少钱来向客户收取费用。针对AI功能,如果一些功能是全员使用的,那乐享就会按照一定价格在原有的费用基础上向客户收取;如果一个功能不是全员使用,那这部分的收费模式将是一个单独模块。

“但整体来说,在乐享AI的产品建设进程中,用户体验优先级大于收费,当前我们还是希望用户先用起来”。周芝芝说。

同样,腾讯会议的AI小助手等功能也是开放给付费版本的用户。腾讯会议云会议产品负责人朱莹表示,“会议是一个多人协作的场景,为了让用户降低使用 AI 的门槛,腾讯会议在商业模式上也做了些设计。当一场会议的主持人是付费版本时,所有的参会成员在主持人允许的情况下,都可以尝试使用AI小助手”。

与这些产品不同,腾讯云AI代码助手的商业模式则更清晰。腾讯云开发者AI产品负责人丁宁向记者表示,AI代码助手是一个插件形式的产品,所以它可以单独售卖。而且在市场上,像GitHub Copilot已经有几百万的付费用户,是按license的方式收费,腾讯AI代码助手也会采用类似的定价方式。

声明:免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。