如果你去过GDC的展厅就知道,真正能把人留在展台前的,往往不是海报写得多漂亮,而是“你能不能上手试、试完是不是立刻想带回去用”。这次腾讯游戏的VISVISE在GDC 2026搞的就是这种路子:直接拉出互动体验区,现场实时演示,来宾可以动手操作,把AI到底能给3D角色制作流程省多少事、提多少速,感受得一清二楚。
现场最吸睛的,是他们全球首发的多模态动作生成大模型——说白了,就是把动画制作里最常见、最耗时间的那几段流程,用一套能落地的“组合拳”串起来。核心能力有三块:“文生动画”“视频动捕”和“AI补帧”,从灵感到成片,尽量别让人卡在中间反复返工。
先说“文生动画”。动画师或开发者不需要从零开始拉曲线、调关键帧,只要输入类似“角色攀爬”“向前挥手”“跳舞”这样的文字指令,系统就能快速给出对应的3D动画结果。现场展示的动作看起来挺顺,细节也够用,而且覆盖的动作类别据介绍已经超过300种。对中小团队来说,这种能力的意义很直接:很多“常规动作”不用再从头造轮子了。
然后是“视频动捕”。以前你想扩充动作库,要么上设备、上棚子,要么找外包,成本和门槛都摆在那。VISVISE的思路更像“把一段视频变成可用资产”:导入视频后,它会自动做人体姿态估计、动作轨迹追踪和骨骼映射,最后输出能直接喂进游戏引擎的标准动画资产。对需要快速迭代、又没有条件做完整动捕流程的团队,这确实很有吸引力。
第三块是MIB(Motion In-Between)智能补帧,解决的是另一个老大难:你只有几个关键姿势、甚至是草图级的关键帧,但完整动作序列还差一大截。现场说法是只需要3到5个关键帧,10秒内就能补出完整动画序列。动画师把控关键姿势节点,AI负责算中间的过渡,目标是把流畅度拉到接近光学动捕的观感。
有意思的是,现场不少开发者的反馈很“行业人”。来自欧美和亚洲的体验者普遍觉得这套方案正好打在痛点上:以前一个战斗动作从分镜到手调关键帧,磨上几天很正常;现在用文字描述一下,几秒钟就能拿到一个质量不错的版本,再在这个基础上做精修,节奏完全不同。一位法国独立游戏制作人就提到,这种高质量的提效工具能让他把时间更集中在创意本身,而不是被重复劳动拖住。
更关键的是,它不是停留在“展会demo好看”的阶段。VISVISE目前已经用在《和平精英》《PUBG Mobile》等90多款游戏里,能在工业化生产中跑起来、稳定性和普适性经得住验证,这一点对工具类产品特别重要——做游戏的人最怕的就是“演示很强,上线很难”。
除了展台体验,3月12日(当地时间)腾讯游戏AIGC产品总监葛诚还做了一场主题演讲,题目是《释放美术创意:腾讯的AIGC工具如何助力创作者》,核心是在讲他们怎么把AIGC真正塞进3D角色生产流程,形成可复用的“最佳实践”。
他提到一个现状我挺认同:现在行业一边喊AI能生成海量资产,一边又发现“资产通胀”带来的新麻烦——东西是多了,但美术团队很难把这些内容顺畅接进引擎和生产管线里,最后反而变成筛选、返工、重做。VISVISE的方向,就是把AI做成生产级的管线,而不是一堆彼此不通的单点工具,目的很明确:让艺术家把时间花在更有价值的创作判断上。
在动画这块,他们发布了超10亿参数的多模态动画大模型MotionGen,并把自动绑定与蒙皮的自动化率提升到80%以上。不仅支持标准双足骨骼,还能处理飘带、裙摆这类复杂的物理次级骨骼——这其实是很多“看起来能动”的方案落地时最容易露怯的地方。与此他们提到自研的MIB插帧与动作生成技术从底层去压“滑步、抖动”这类传统AI动画常见问题,把缺陷率控制在10%以下,强调的是生成质量可用、可规模化进入生产。
在3D网格生成上,VISVISE给出的解法是Meshgen-O架构:几分钟内把图文转成高保真3D资产,并且原生生成更“引擎友好”的整洁四边面拓扑,还会自动产出最多6个LOD层级。对做过美术管线的人来说,这段信息含金量很高——很多同类工具最大的问题不是“生成不出东西”,而是拓扑乱、不可编辑、进不了引擎,最终还是得人工重拓扑重做。能把“即插即用”这件事往前推一步,才算真正靠近落地。
葛诚在演讲里有一句话说得挺直白:用高效自动化的管线,把美术师从重复劳动里解放出来,让团队把精力放回艺术打磨和创意实现。结合腾讯20多年自研游戏的经验,他们希望给全球开发者提供更顺手的创作路径,把时间留给最核心的创意环节。
从去年SIGGRAPH Asia到今年GDC 2026,VISVISE的叙事也明显在变:从“AI全流程3D动画管线”往“游戏创作全链路AI解决方案”走。对外行来说这可能只是名字升级,但对开发者来说,差别在于你拿到的是一个能串起前后流程的生产系统,还是一堆需要你自己拼装、最后还可能互相打架的工具。至少从这次GDC的展示和已落地的项目规模来看,VISVISE更像是在把“高效且高品质”这件事,往现实里拽。
