试用LongCat-Video实时演示
实时体验LongCat-Video的强大功能。从文本或图像生成视频,看到惊人的结果。
Loading LongCat-Video demo...
什么是LongCat-Video
LongCat-Video是美团推出的136亿参数基础视频生成模型。它具有统一架构,在单个模型内支持文本生成视频、图片生成视频和视频续写任务。LongCat-Video原生支持长视频生成,可产生分钟级视频而无色彩漂移或质量退化,使用粗到细生成策略高效生成720p 30fps视频。
- 文本生成视频使用先进神经网络将文本提示转换为高质量视频。从简单文本描述创建引人入胜的视觉内容。
- 图片生成视频通过生成流畅的视频动画让静态图像栩栩如生。通过智能运动合成从单张图像创建动态内容。
- 视频续写无缝扩展现有视频而不会质量损失或色彩漂移。生成分钟级视频,具有一致的质量和自然的过渡。
模型对比
将LongCat-Video与其他最先进的视频生成模型在不同任务和指标上进行比较。
文本生成视频性能
| 模型 | 可访问性 | 架构 | 参数 | 文本对齐 | 视觉质量 | 运动质量 | 总体质量 |
|---|---|---|---|---|---|---|---|
| Veo3 | 专有 | - | - | 3.99 | 3.23 | 3.86 | 3.48 |
| PixVerse-V5 | 专有 | - | - | 3.81 | 3.13 | 3.81 | 3.36 |
| Wan 2.2-T2V-A14B | 开源 | MoE | 28B (14B Active) | 3.70 | 3.26 | 3.78 | 3.35 |
| LongCat-Video | 开源 | Dense | 13.6B | 3.76 | 3.25 | 3.74 | 3.38 |
图片生成视频性能
| 模型 | 可访问性 | 架构 | 参数 | 图像对齐 | 文本对齐 | 视觉质量 | 运动质量 | 总体质量 |
|---|---|---|---|---|---|---|---|---|
| Seedance 1.0 | 专有 | - | - | 4.12 | 3.70 | 3.22 | 3.77 | 3.35 |
| Hailuo-02 | 专有 | - | - | 4.18 | 3.85 | 3.18 | 3.80 | 3.27 |
| Wan 2.2-I2V-A14B | 开源 | MoE | 28B (14B Active) | 4.18 | 3.33 | 3.23 | 3.79 | 3.26 |
| LongCat-Video | 开源 | Dense | 13.6B | 4.04 | 3.49 | 3.27 | 3.59 | 3.17 |
快速开始
按照以下步骤快速上手LongCat-Video,几分钟内即可开始生成视频。
#facc15;">"color: #4ade80;">git "color: #4ade80;">clone https://github.com/meituan-longcat/LongCat-Video."color: #4ade80;">git
cd LongCat-VideoLongCat-Video核心功能
为全球创作者和开发者设计的先进AI驱动视频生成能力。
统一多任务框架
单一模型支持文本生成视频、图片生成视频和视频续写任务,在所有生成模式下保持一致的高性能。
长视频生成
在视频续写任务上原生预训练,可产生分钟级视频而无色彩漂移或质量退化。
高质量输出
使用先进神经网络架构和优化技术生成专业质量的720p、30fps视频。
高效推理
使用沿时间和空间轴的粗到细生成策略和GPU加速,在几分钟内快速生成视频。
强大性能
由多奖励GRPO优化驱动,实现与领先开源和商业视频生成模型相当的性能。
开源和MIT许可证
完全开源模型,MIT许可证,可在GitHub和Hugging Face上获取,用于研究和商业应用。
人们在X上对LongCat-Video的讨论
加入社交媒体上关于LongCat-Video的对话
🚀 LongCat-Video Now Open-Source: Text/Image-to-Video + Video Continuation in One Model
— Meituan LongCat (@Meituan_LongCat) October 25, 2025
🏆 Text/Image-to-Video Performance Hits Open-Source SOTA
🎬 Minutes-Long High-Quality Videos: No Color Drift/Quality Loss (Industry-Standout)
⚙ 13.6B Params | Strong Open-Source DiT-Based… pic.twitter.com/rJXv7DiVZx
Chinese doordash dropping MIT license foundation video models???
— Vaibhav (VB) Srivastav (@reach_vb) October 25, 2025
“We introduce LongCat-Video, a foundational video generation model with 13.6B parameters, delivering strong performance across Text-to-Video, Image-to-Video, and Video-Continuation generation tasks.”…
🐈✨✨✨ #VRChat #まめひなた
— ティキレス (@VRTikiRes) December 29, 2023
ワールド名 Longcat Challenge ǃ https://t.co/FSGoEMgCUM pic.twitter.com/7TdIRdy94M
🇨🇳 Chinese doordash Meituan launched LongCat-Video on @huggingface under MIT License.
— Rohan Paul (@rohanpaul_ai) October 25, 2025
A small 13.6B model that unifies Text-to-Video, Image-to-Video, and Video-Continuation, targeting minutes-long coherent clips and fast 720p 30fps output.
It frames every task as continuing… pic.twitter.com/Q0b71C2VWA
🎡📸
— n 🐹🪻 (@hasumikn) September 29, 2024
(cr: longcat • crepe) pic.twitter.com/h1NTxKMxzJ
Congrats to @Meituan_LongCat on achieving extremely low cost and fast generation speed for LongCat-Flash —powered by SGLang,FlashInfer kernels and #opensource innovation.
— NVIDIA AI Developer (@NVIDIAAIDev) September 8, 2025
We are excited to continue collaborating with @lmsysorg and the community to upstream optimizations. Read… https://t.co/M1wGVgR2No
🎉 Congrats to Meituan LongCat team on launching LongCat-Flash-Chat — a 560B MoE model now open-sourced!
— LMSYS Org (@lmsysorg) September 2, 2025
Powered by SGLang inference acceleration, it achieves high efficiency and strong benchmark results.
Details in the blog 👉 https://t.co/O5iMvBhiIn https://t.co/aEHttUHnpv
Meituan just open sourced their new MoE LLM LongCat on @huggingface
— Tiezhen WANG (@Xianbao_QIAN) August 30, 2025
It's exciting to see new players! The model looks very interesting too with technical report.https://t.co/DduHMQxw5F pic.twitter.com/QMq0K8qJa0
LongCat Flash Chat Available Now on Chuteshttps://t.co/cRa7rR48BQ
— Chutes (@chutes_ai) August 31, 2025
$0.1999 USD IN
$0.8001 USD OUT
Try it out now with PAYG or an active subscription, which starts at $3 for 300 requests/day. https://t.co/pRo9IcGzSi pic.twitter.com/Hn7m8CnqEO
