論文の概要: Estimating 2D Camera Motion with Hybrid Motion Basis
- arxiv url: http://arxiv.org/abs/2507.22480v1
- Date: Wed, 30 Jul 2025 08:30:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.097297
- Title: Estimating 2D Camera Motion with Hybrid Motion Basis
- Title(参考訳): ハイブリッドモーション基底を用いた2次元カメラの運動推定
- Authors: Haipeng Li, Tianhao Zhou, Zhanglei Yang, Yi Wu, Yan Chen, Zijing Mao, Shen Cheng, Bing Zeng, Shuaicheng Liu,
- Abstract要約: CamFlowは、ハイブリッドモーションベースを使用したカメラモーションを表現する新しいフレームワークである。
提案手法は,ラプラス分布に基づくハイブリッド確率損失関数を含む。
CamFlowはさまざまなシナリオで最先端のメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 45.971928868591334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating 2D camera motion is a fundamental computer vision task that models the projection of 3D camera movements onto the 2D image plane. Current methods rely on either homography-based approaches, limited to planar scenes, or meshflow techniques that use grid-based local homographies but struggle with complex non-linear transformations. A key insight of our work is that combining flow fields from different homographies creates motion patterns that cannot be represented by any single homography. We introduce CamFlow, a novel framework that represents camera motion using hybrid motion bases: physical bases derived from camera geometry and stochastic bases for complex scenarios. Our approach includes a hybrid probabilistic loss function based on the Laplace distribution that enhances training robustness. For evaluation, we create a new benchmark by masking dynamic objects in existing optical flow datasets to isolate pure camera motion. Experiments show CamFlow outperforms state-of-the-art methods across diverse scenarios, demonstrating superior robustness and generalization in zero-shot settings. Code and datasets are available at our project page: https://lhaippp.github.io/CamFlow/.
- Abstract(参考訳): 2次元カメラモーションを推定することは、3次元カメラモーションの投影を2次元イメージプレーンにモデル化する基本的なコンピュータビジョンタスクである。
現在の手法は、平面的なシーンに限定されたホモグラフィに基づくアプローチと、グリッドベースの局所的ホモグラフィを使用するメッシュフロー技術のいずれかに依存しているが、複雑な非線形変換に苦慮している。
我々の研究の重要な洞察は、異なるホモグラフィーからのフローフィールドを組み合わせることで、単一のホモグラフィーでは表現できない動きパターンが生成されることである。
複雑なシナリオのためのカメラ幾何学と確率的ベースから派生した物理ベースであるハイブリッドモーションベースを用いたカメラモーションを表現する新しいフレームワークであるCamFlowを紹介する。
提案手法は,ラプラス分布に基づくハイブリッド確率損失関数を含む。
評価のために、既存の光学フローデータセットの動的オブジェクトをマスキングして、純粋なカメラモーションを分離する新しいベンチマークを作成する。
実験では、CamFlowはさまざまなシナリオで最先端のメソッドよりも優れており、ゼロショット設定で優れた堅牢性と一般化を示している。
コードとデータセットはプロジェクトのページで公開されています。
関連論文リスト
- In-2-4D: Inbetweening from Two Single-View Images to 4D Generation [54.62824686338408]
最小限の入力設定からSplatingにおける生成4D(すなわち3D + Motion)のための新しい問題In-between2-4Dを提案する。
動作中の物体の開始状態と終了状態を表す2つの画像が与えられた場合、我々のゴールは4Dで動きを生成・再構成することである。
論文 参考訳(メタデータ) (2025-04-11T09:01:09Z) - Image as an IMU: Estimating Camera Motion from a Single Motion-Blurred Image [14.485182089870928]
本研究では,動きのぼかしを動き推定のためのリッチキューとして活用する新しいフレームワークを提案する。
提案手法は, 単一動画像から直接, 濃密な運動流場と単眼深度マップを推定することにより機能する。
本手法は,高速でアグレッシブなカメラの動きを強く捉えるIMUライクな計測法である。
論文 参考訳(メタデータ) (2025-03-21T17:58:56Z) - Cinematic Behavior Transfer via NeRF-based Differentiable Filming [63.1622492808519]
既存のSLAM手法は動的シーンの制限に直面し、人間のポーズ推定はしばしば2次元投影に焦点を当てる。
まず,逆撮影行動推定手法を提案する。
次に,新しい2Dビデオや3D仮想環境に様々な撮影タイプを転送できる映像転送パイプラインを導入する。
論文 参考訳(メタデータ) (2023-11-29T15:56:58Z) - FlowCam: Training Generalizable 3D Radiance Fields without Camera Poses
via Pixel-Aligned Scene Flow [26.528667940013598]
ポーズ画像からの3次元ニューラルネットワークの再構成は、自己教師付き表現学習の有望な方法として現れている。
これらの3Dシーンの学習者が大規模ビデオデータに展開するのを防ぐ重要な課題は、構造から移動までの正確なカメラポーズに依存することである。
本稿では,オンラインと1つのフォワードパスでカメラポーズと3Dニューラルシーン表現を共同で再構築する手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T20:58:46Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。