

今天,阿里公布了 HappyHorse 1.0 的体验渠道,千问官方首发灰测,千问 APP 和千问创作 Web 端都能直接使用。


无论是文生视频还是图生视频,均支持最高 1080p 的视频分辨率。我们可以自由选择 16:9、9:16 或是 1:1 的视频宽高比,生成时长可选 5 秒、10 秒或 15 秒,并且支持原生生成音频。
APPSO 第一时间拿到了体验资格,评测榜单的排名能说明结果,但是 HappyHorse 1.0 生成的视频,到底有什么优点,一起来看看我们的实测。

用一句指令,直接搞定运镜和故事板
大部分的主流视频模型,都会把镜头运动当做一个库,给用户来调用。所谓的镜头运动,更像是从这些库里,推进、拉远、旋转,随机挑一个运镜方式,并没有配合画面里正在发生的事情。
而镜头感作为视频最重要的一部分,往往一眼就能感受到明显的差距,但它本身又很难用具体数值来量化。

同样一个提示词,丢给多个模型生成的视频画面,可能都会偏向「固定机位」,人物站在中间,缺乏镜头调度。因为这样最不容易出错,但是给视频的观感又大打折扣。
HappyHorse 1.0 在生成的视频里,则是像一个懂行的摄影指导,各种大师级运镜,从全景到近距离跟拍马蹄的扬尘,再流畅切换到低角度仰拍拔枪的瞬间。

情绪和动作都有了层次感,微表情也能演戏
对于很多视频模型,人物动作是最难解决的问题。即便使用详细的参考生成,到了后半段还是容易出现变形,比如手指多一根、脸部模糊或者动作节奏突变。
但 HappyHorse 1.0 在这个硬指标上表现非常稳定,一段 5 秒的视频,人物动作从头到尾基本保持连贯,穿帮的频率明显更低。

HappyHorse 1.0 给的动作过渡非常自然,女孩在花丛中走路完全没有那些「太空步」的滑移,从她转动裙摆,到捧起花朵凑近鼻子,整个动作流程行云流水。

通过动作和表情,让人物的情绪更有层次感,HappyHorse 1.0 生成视频也更不容易让人出戏。
官方数据显示,HappyHorse 1.0 的内部 GSB(Good-Significant-Bad 人类偏好评分)是 Wan2.7 的 3 倍,动作流畅性和清晰度都进步明显。
对话听起来更像真人,环境音也开始参与叙事
除了画面表现,HappyHorse 在 AI 视频配音上的表现也比其他模型更出色。
大部分的 AI 视频配音,都有一个很难绕开的问题:听上去像在「念」,不像在「说」。
语气是平的,语调不跟着情绪走,两个人对话的时候,一方说话,另一方就在那里等着,没有反应,没有表情变化,像两个人在分别完成自己的任务。

环境音也是一样的逻辑。书写声、翻页声、远处的背景音,这些细节在大多数视频模型里是缺席的,或者听上去是从音效库里随机抓来的。
HappyHorse 1.0 里,这些声音跟画面里正在发生的事情是对得上的,而且能参与情绪。在安静的场景里,出现一点纸张摩擦声,或许比大多数配乐都更容易让人有沉浸感。

输入中文文本生成人物说话的视频,嘴型就能跟上语音。这个能力的想象空间相当大,从短视频配音到虚拟主播,未来都会用得上。
不需要复杂的风格提示词,轻松拿捏经典影视剧风格
如果说前面关于镜头、动作和声音几点解决的是 AI 视频的硬件问题,即 AI 视频不能让人出戏;风格的还原,则是让最后的画面更有戏。它会开始用色彩、光影和质感,去建立属于创作者的美学氛围。
风格的添加也很讲究,不是套一层滤镜,或者一个打包好的 LUT 包,它也需要视频模型对不同美学风格的了解,以应用合适的风格化。



AI 视频赛道需要一匹黑马
告别了动辄半天的视频生成排队,一个 Video Arena 榜单第一的模型,现在不仅直接放到了手机 App 里随手可用,还给了免费体验额度,千问这波实在是给力。
回头看 HappyHorse 1.0 的这几个特点,动作不穿帮、镜头有语言感,解决了 AI 内容质量的可预期性,让我们不用再抱着「抽卡」的心态,去体验 AI 视频生成。
对白自然、真实的环境音、还有精准的风格化还原,更是让我们和创作者少了大量的后期修补成本,不需要在多个工具之间来回倒腾。
如果把这种极低门槛、高容错率的生成能力放到具体的商业语境中,价值是显而易见的。
对于新媒体运营、短剧导演或是电商营销团队而言,过去需要庞大后期团队和高昂拍摄预算才能完成的分镜预演、概念设计或视觉短片,现在只需在手机或电脑上输入指令就能快速落地。在千问里,一个人就是一支高效的视听制作团队。

过去一段时间,视频生成赛道的竞争逻辑是「谁的模型更强」——更高的分辨率、更长的时长、更复杂的物理模拟。
拼的是参数和算法的技术竞赛,但我们真正卡住的地方很少是因为「模型做不到」,大多数时候是「做到了但用不起或用不到」,等待时间太长、声画要分开处理、动作稳不稳全靠运气,每一个环节的摩擦都在把视频生成挡在专业用户和 AI 超级创作者之外。
而这一次,千问不仅省去了我们在不同工具之间切换的折腾,把最顶级的视频生成能力直接放到了最熟悉的对话框里,更借助底层模型的实力,把这些创作摩擦一个个彻底抹平了。

HappyHorse 无疑是一匹强劲的黑马,他是阿里新成立的 ATH 事业群,在模型能力、平台分发、具体应用这条完整链条上的一块关键拼图;在千问首发灰测后,链条开始跑起来了。
从帮助用户解决日常问题、提升工作学习效率的文本对话,到如今整合了极高水准的 AI 生图与视频能力,千问的进化路径已经非常清晰:它正在打破「生活提效」与「专业创作」的壁垒。
通过一次次的功能迭代,千问正将顶级的算力平民化,真正从一个简单的问答工具,蜕变为一个覆盖用户全场景的「全能型 AI 助手」。
作为普通人,我们或许不需要关心背后复杂的算法架构,因为最好的技术,已经通过千问以最顺滑的方式装进了你的手机里。

如果你也想体验 HappyHorse 1.0 强大的视频生成能力,千问还同步开启了「天马行空」挑战赛。一共四大 AIGC 视频赛道,20 万现金奖池等大家来拿。
直接前往千问 App 或千问创作 Web 端,用灵感在这个没有门槛的新画布上,真正「天马行空」一次。
* 文章内视频播放可点击该链接预览*