【自荐】 我用 Wan2.2 做了自己的产品,这个模型值得更多人看到

大家好,我是一名 AI 视频工具的开发者。

过去半年,我试了市面上几乎所有主流视频生成模型:Runway、PixVerse、Pika、Veo3、Sora……
它们各有亮点,但当我真正要把产品上线、让用户使用、出片稳定时,我选的其实是一个很少人提起的模型 —— Wan2.2。

而且,我现在用它做了自己的产品。


为什么是它?

作为产品开发者,我并不追求模型“最强”,而是要它**稳定、速度快、接入简单、出图效果能用。

大多数模型在实验阶段看起来很酷,但一旦你想把它接入一套真正对用户开放的流程,就会遇到各种坑。而 Wan2.2 恰恰是那个“没那么花哨,但非常实用”的选手。


它做对了哪些事情?

  • 出片是 720P 的,画质清晰,动作自然。不漂不糊,细节抓得住。
  • 支持图像转视频。我直接用 Midjourney 出图,再扔进 Wan2.2,让静态图“动起来”,整个流程几乎不需要调参数
  • 运镜处理高级。你能看到推拉、景别变化、镜头情绪都有逻辑,不是那种“傻转”。

它并不是让你无限控制一切的研究型工具,而是一个可以直接上线、对用户友好、能快速出结果的“生产工具”


它的局限性?

当然有:

  • 最长只能生成 8 秒;
  • 不支持个性化训练或微调;
  • 官网没有免费试用,注册后才能用。

但对于我这种做产品的人来说,“能用、好用、稳用”远比“功能最多”重要得多


写在最后

我不是 Wan2.2 的团队成员,我只是个用了它、靠它上线产品的开发者。
在 AI 视频越来越卷、噱头越来越多的时候,我希望能有更多人看到这种真正能落地的模型。

:backhand_index_pointing_right: https://wan22.io
这个网站就是我用 Wan2.2 打造的产品之一。如果你也是在做 AI 视频方向,欢迎来聊聊,一起交流模型、落地、产品思路。

你提到的两个链接是同一个链接。

是写错了么