腾讯混元发布会:开源的未来在哪里?
在2023年腾讯混元发布会的现场,最引人注目的核心主题是开源。这次闭门发布会上,腾讯不仅向公众开放了他们的MoE模型“混元Large”和3D大模型“Hunyuan3D-1.0”,还将即将发布的长文本评测数据集“企鹅卷轴”亮相,以下是对这些内容的详细解析。
混元Large:什么是MoE模型,其独特之处在哪里?
混元Large被视为目前开源参数最大、效果最好的MoE模型。其参数总量达到389B,激活参数量为52B,上下文长度高达256K。令人惊讶的是,尽管MoE模型的训练十分复杂且涉及众多变量,腾讯却成功地将其开源。
MoE模型的工作原理
MoE全称为混合专家模型,其运行机制可以形象地比作医院的就诊流程:
- 导诊台:当用户输入问题时,系统首先评估该问题(路由决策),并为其选择最合适的专家(模型参数)。
- 专科医生:只有需要的医生(参数)会出诊(激活)。
通过这种机制,尽管混元Large的总医生数量高达389个,但每次诊断只需激活52个即可,这使得推理效率极高,且能够显著降低计算成本。
Hunyuan3D-1.0:AI 3D 模型的开源意义
Hunyuan3D-1.0是腾讯推出的AI 3D大模型,这在开源领域内实属稀缺。它支持从文本生成3D(文生3D)和从图像生成3D(图生3D)。发布的版本分为标准版和轻量版,轻量版能在10秒内生成一个3D模型。
性能与应用
尽管现阶段Hunyuan3D-1.0在模型质量和精细度上暂时无法和顶级闭源模型如TripoAI相比,然而在开源领域,它无疑是T0级别的产品,可以广泛应用于视频游戏和电影制作等领域,帮助制作个性化的3D模型,提升内容创作者的效率。
通过开源,腾讯不仅提供了一种技术工具,更是在为创作者们的生产力赋能,令他们得以专注于更具创造性的工作。
企鹅卷轴:长文本评测的新的里程碑
长文本的评测一直是一个难题,过去缺乏明确的数据集。现在,腾讯即将开源的“企鹅卷轴”评测集,将填补这一空白。该数据集专注于长文本的评测,旨在精确判断大模型在处理长文本能力上的表现。
使用前景
“企鹅卷轴”将为我们提供一个基准,以便对市场上各类长文本大模型进行比较。这样的评测集,将促使开发者在模型处理长文本时,更加注重准确性和有效性。
总体感悟
我认为:开源不仅是技术的分享,更是推动社会进步的力量。腾讯混元的这次开源举措为国内的开源社区注入了新的活力,另一方面,也彰显了对技术与社会责任的结合。在技术日新月异的今天,开源模式不仅能助力企业获得更广阔的视野,更能让每一位技术开发者受到鼓舞。今年,腾讯的开源之路才刚刚开始,未来值得期待。