中国经济时报记者 张丽敏
4月15日,可灵AI在北京中关村国际创新中心举行“灵感成真”2.0模型发布会,宣布基座模型再次升级,面向全球正式发布可灵2.0视频生成模型及可图2.0图像生成模型。据悉,可灵2.0模型在动态质量、语义响应、画面美学等维度,保持全球领先;可图2.0模型在指令遵循、电影质感及艺术风格表现等方面显著提升。
数据显示,自去年6月发布以来,可灵AI已累计完成超20次迭代,截至目前,全球用户规模突破2200万。来自世界各地的超1.5万开发者和企业客户,将可灵的API应用于不同的行业场景中。
盖坤介绍,两款模型在团队内部的多项胜负率评测中,均稳居业内第一。例如在文生视频领域,可灵2.0对比谷歌Veo2的胜负比为205%,对比Sora的胜负比达367%,在文字相关性、画面质量、动态质量等维度上显著超越对手。
快手高级副总裁、社区科学线负责人盖坤在本次2.0模型的迭代中,可灵AI正式发布AI视频生成的全新交互理念Multi-modal Visual Language(MVL),让用户能够结合图像参考、视频片段等多模态信息,将脑海中包含身份、外观、风格、场景、动作、表情、运镜在内的多维度复杂创意,直接高效地传达给AI。
“大家应该很自然地会感受到文字在表达影像信息时,是不完备的。我们需要有新的方式,能让人真正精准地表达出心中所想。”盖坤指出,MVL由TXT(Pure Text,语义骨架)和MMW(Multi-modal-document as a Word,多模态描述子)组成,能从视频生成设定的基础方向以及精细控制这两个层面,精准实现AI创作者们的创意表达。
基于MVL理念,可灵AI正式推出多模态编辑功能。“从今天起,大家可以在可灵AI的平台上体验我们的多模态编辑能力。用户可以非常直接地把自己的想法用图像等方式作为输入,生成符合自己想法的创意视频。”盖坤介绍,MMW(多模态描述子)将不只局限于图片和视频,也可以引入其它模态的信息,例如声音、运动轨迹等,让用户实现更加丰富的表达。
“灵感成真”可灵AI2.0发布会现场基于MVL这一全新交互方式,发布会现场,快手副总裁、可灵AI负责人张迪发布了全新的可灵2.0大师版,在语义响应、动态质量、画面美学等方面显著提升生成效果。
除了C端订阅用户,可灵AI也面向B端商家提供API接入等服务。目前,可灵AI已与包括小米、亚马逊云科技、阿里云、Freepik、蓝色光标等在内的数千家国内外企业客户建立了合作关系。
为了进一步激发AI爱好者们的创作热情,张迪还在发布会现场正式发起“可灵AI NextGen 新影像创投计划”。该计划将加大对于AIGC创作者的扶持力度,通过千万资金投入、全球宣发、IP打造和保障,以全资出品、联合出品和技术支持等灵活多样的合作方式,让AI好故事走向世界。同时,可灵AI面向全球创作者发出征集邀约,邀请用户共同打造全球首支用户共创AI创意短片,让创作者的灵感和创意登陆上海、香港、东京、巴黎、多伦多等世界多地广告大屏。