論文の概要: GeCo: A Differentiable Geometric Consistency Metric for Video Generation
- arxiv url: http://arxiv.org/abs/2512.22274v1
- Date: Thu, 25 Dec 2025 03:28:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.951411
- Title: GeCo: A Differentiable Geometric Consistency Metric for Video Generation
- Title(参考訳): GeCo:ビデオ生成のための異なる幾何学的一貫性メトリクス
- Authors: Leslie Gu, Junhwa Hur, Charles Herrmann, Fangneng Zhan, Todd Zickler, Deqing Sun, Hanspeter Pfister,
- Abstract要約: 静的なシーンにおける幾何学的変形と閉塞不整合を共同検出するための幾何学的グラウンドメトリックであるGeCoを紹介する。
残留した動きと深さの先行を融合させることで、GeCoはこれらのアーティファクトを明らかにする解釈可能な高密度な一貫性マップを生成する。
我々は、GeCoを使用して、最新のビデオ生成モデルを体系的にベンチマークし、共通の障害モードを明らかにし、さらに、ビデオ生成時の変形アーチファクトを低減するために、トレーニング不要な損失ガイダンスとして使用します。
- 参考スコア(独自算出の注目度): 61.28264035357065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce GeCo, a geometry-grounded metric for jointly detecting geometric deformation and occlusion-inconsistency artifacts in static scenes. By fusing residual motion and depth priors, GeCo produces interpretable, dense consistency maps that reveal these artifacts. We use GeCo to systematically benchmark recent video generation models, uncovering common failure modes, and further employ it as a training-free guidance loss to reduce deformation artifacts during video generation.
- Abstract(参考訳): 静的なシーンにおける幾何学的変形と閉塞不整合を共同検出するための幾何学的グラウンドメトリックであるGeCoを紹介する。
残留した動きと深さの先行を融合させることで、GeCoはこれらのアーティファクトを明らかにする解釈可能な高密度な一貫性マップを生成する。
我々は、GeCoを使用して、最新のビデオ生成モデルを体系的にベンチマークし、共通の障害モードを明らかにし、さらに、ビデオ生成時の変形アーチファクトを低減するために、トレーニング不要のガイダンス損失として使用します。
関連論文リスト
- GeoVideo: Introducing Geometric Regularization into Video Generation Model [46.38507581500745]
フレームごとの深度予測による潜時拡散モデルの拡大により,ビデオ生成に幾何正則化損失を導入する。
本手法は, 外観生成と3次元構造モデリングのギャップを埋めることにより, 構造的コヒーレンス・時間的形状, 整合性, 物理的妥当性が向上する。
論文 参考訳(メタデータ) (2025-12-03T05:11:57Z) - Epipolar Geometry Improves Video Generation Models [73.44978239787501]
3D一貫性のあるビデオ生成は、生成および再構成タスクにおける多くの下流アプリケーションに大きな影響を与える可能性がある。
エピポーラ幾何学的制約が現代のビデオ拡散モデルをどのように改善するかを考察する。
データ駆動型ディープラーニングを古典的幾何学的コンピュータビジョンでブリッジすることで、空間的に一貫したビデオを生成する実用的な方法を提案する。
論文 参考訳(メタデータ) (2025-10-24T16:21:37Z) - Visibility-Aware Densification for 3D Gaussian Splatting in Dynamic Urban Scenes [7.253732091582086]
VAD-GSは3DGSフレームワークで、挑戦的な都市景観の幾何学的復元に適したものだ。
本手法は, ボクセルに基づく可視性推論により, 信頼性の低い幾何学構造を同定する。
多様性を意識したビュー選択を通じて情報的支援ビューを選択し、パッチマッチングベースのステレオ再構築によって行方不明構造を復元する。
論文 参考訳(メタデータ) (2025-10-10T13:22:12Z) - GeometryCrafter: Consistent Geometry Estimation for Open-world Videos with Diffusion Priors [47.21120442961684]
オープンワールドビデオから時間的コヒーレンスで高忠実度点マップシーケンスを復元する新しいフレームワークであるGeometryCrafterを提案する。
GeometryCrafterは最先端の3D精度、時間的一貫性、一般化能力を実現する。
論文 参考訳(メタデータ) (2025-04-01T17:58:03Z) - The Drunkard's Odometry: Estimating Camera Motion in Deforming Scenes [79.00228778543553]
このデータセットは、3Dシーンの中で地上の真実を語る最初の大規模なカメラ軌道である。
リアルな3Dビルディングのシミュレーションでは、膨大な量のデータと地上の真実のラベルが得られます。
本稿では,光学的フロー推定を剛体カメラ運動に分解するDrunkard's Odometryと呼ばれる,変形可能な新しいオドメトリー法を提案する。
論文 参考訳(メタデータ) (2023-06-29T13:09:31Z) - Consistent Video Depth Estimation [57.712779457632024]
モノクロ映像中の全画素に対して, 密度, 幾何的に整合した深度を再構成するアルゴリズムを提案する。
動画中の画素の幾何的制約を確立するために、従来の動きから再構成した構造を利用する。
我々のアルゴリズムは、手持ちの映像をある程度のダイナミックな動きで処理することができる。
論文 参考訳(メタデータ) (2020-04-30T17:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。