オープンソース🚀 美団LongCat-Video 13.6BベースMITライセンス!

LongCat-Video: 次世代AI動画ジェネレーターモデル

LongCat-Video: テキストや画像から動画を作成し、既存の動画を継続するオープンソースAI(テキストから動画、画像から動画、動画継続タスク)。

LongCat-Videoライブデモを試す

LongCat-Videoの力をリアルタイムで体験してください。テキストや画像から動画を生成し、素晴らしい結果をご覧ください。

Loading LongCat-Video demo...

LongCat-Videoとは

LongCat-Videoは美団による136億パラメータの基盤動画生成モデルです。テキストから動画、画像から動画、動画継続タスクを単一モデル内でサポートする統合アーキテクチャを特徴とします。LongCat-Videoは長動画生成をネイティブサポートし、色ずれや品質劣化なしに数分間の動画を生成し、粗密生成戦略を使用して720p 30fps動画を効率的に生成します。

  • テキストから動画生成
    高度なニューラルネットワークでテキストプロンプトを高品質な動画に変換。簡単なテキスト説明から魅力的な視覚コンテンツを作成。
  • 画像から動画生成
    滑らかな動画アニメーションを生成して静止画に命を吹き込む。インテリジェントなモーション合成で単一画像からダイナミックなコンテンツを作成。
  • 動画継続
    品質損失や色ずれなしに既存動画をシームレスに拡張。一貫した品質と自然な遷移で数分間の動画を生成。

モデル比較

異なるタスクとメトリクスでLongCat-Videoを他の最先端動画生成モデルと比較。

テキストから動画パフォーマンス

モデルアクセシビリティアーキテクチャパラメータテキスト整合性視覚品質モーション品質総合品質
Veo3プロプライエタリ--3.993.233.863.48
PixVerse-V5プロプライエタリ--3.813.133.813.36
Wan 2.2-T2V-A14BオープンソースMoE28B (14B Active)3.703.263.783.35
LongCat-VideoオープンソースDense13.6B3.763.253.743.38

画像から動画パフォーマンス

モデルアクセシビリティアーキテクチャパラメータ画像整合性テキスト整合性視覚品質モーション品質総合品質
Seedance 1.0プロプライエタリ--4.123.703.223.773.35
Hailuo-02プロプライエタリ--4.183.853.183.803.27
Wan 2.2-I2V-A14BオープンソースMoE28B (14B Active)4.183.333.233.793.26
LongCat-VideoオープンソースDense13.6B4.043.493.273.593.17
はじめに

クイックスタート

以下の手順に従ってLongCat-Videoをセットアップし、数分で動画生成を開始できます。

bash
#facc15;">"color: #4ade80;">git "color: #4ade80;">clone https://github.com/meituan-longcat/LongCat-Video."color: #4ade80;">git
cd LongCat-Video

LongCat-Videoの主要機能

世界中のクリエイターと開発者向けに設計された高度なAI動画生成機能。

統合マルチタスクフレームワーク

すべての生成モードで一貫した高パフォーマンスを持つテキストから動画、画像から動画、動画継続タスクをサポートする単一モデル。

長動画生成

色ずれや品質劣化なしに数分間の動画を生成するために動画継続タスクでネイティブに事前訓練。

高品質出力

高度なニューラルネットワークアーキテクチャと最適化技術を使用してプロフェッショナル品質の720p、30fps動画を生成。

効率的な推論

GPU加速による時間的・空間的軸に沿った粗密生成戦略を使用して数分以内の高速動画生成。

強力なパフォーマンス

主要なオープンソースおよび商用動画生成モデルに匹敵するパフォーマンスを達成するマルチリワードGRPO最適化により動力。

オープンソース&MITライセンス

研究および商用アプリケーション向けにGitHubとHugging Faceで利用可能なMITライセンス付き完全オープンソースモデル。

XでLongCat-Videoについて話していること

ソーシャルメディアでのLongCat-Videoに関する会話に参加

FAQ