論文の概要: InFlux: A Benchmark for Self-Calibration of Dynamic Intrinsics of Video Cameras
- arxiv url: http://arxiv.org/abs/2510.23589v1
- Date: Mon, 27 Oct 2025 17:54:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.657863
- Title: InFlux: A Benchmark for Self-Calibration of Dynamic Intrinsics of Video Cameras
- Title(参考訳): InFlux: ビデオカメラの動的内在性の自己校正のためのベンチマーク
- Authors: Erich Liang, Roma Bhattacharjee, Sreemanti Dey, Rafael Moschopoulos, Caitlin Wang, Michel Liao, Grace Tan, Andrew Wang, Karhan Kayan, Stamatis Alexandropoulos, Jia Deng,
- Abstract要約: たいていの3Dアルゴリズムは、カメラの内在性はビデオを通して一定であると仮定している。
本稿では,Flux(Intrinsics in Flux, InFlux, Intrinsics in Flux)について述べる。
- 参考スコア(独自算出の注目度): 26.829937413425096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately tracking camera intrinsics is crucial for achieving 3D understanding from 2D video. However, most 3D algorithms assume that camera intrinsics stay constant throughout a video, which is often not true for many real-world in-the-wild videos. A major obstacle in this field is a lack of dynamic camera intrinsics benchmarks--existing benchmarks typically offer limited diversity in scene content and intrinsics variation, and none provide per-frame intrinsic changes for consecutive video frames. In this paper, we present Intrinsics in Flux (InFlux), a real-world benchmark that provides per-frame ground truth intrinsics annotations for videos with dynamic intrinsics. Compared to prior benchmarks, InFlux captures a wider range of intrinsic variations and scene diversity, featuring 143K+ annotated frames from 386 high-resolution indoor and outdoor videos with dynamic camera intrinsics. To ensure accurate per-frame intrinsics, we build a comprehensive lookup table of calibration experiments and extend the Kalibr toolbox to improve its accuracy and robustness. Using our benchmark, we evaluate existing baseline methods for predicting camera intrinsics and find that most struggle to achieve accurate predictions on videos with dynamic intrinsics. For the dataset, code, videos, and submission, please visit https://influx.cs.princeton.edu/.
- Abstract(参考訳): 2Dビデオから3Dの理解を得るためには、カメラ固有の正確な追跡が不可欠である。
しかし、ほとんどの3Dアルゴリズムは、カメラの内在性はビデオを通して一定であると仮定している。
この分野での大きな障害は、ダイナミックカメラ固有のベンチマークの欠如である。既存のベンチマークは、通常、シーンの内容と固有のバリエーションに制限があるが、連続するビデオフレームに対してフレームごとの固有の変更は提供しない。
本稿では,Flux(Intrinsics in Flux, InFlux, Intrinsics in Flux)について述べる。
以前のベンチマークと比較すると、InFluxはより幅広い固有のバリエーションとシーンの多様性を捉えており、ダイナミックカメラの内在性を備えた386の高解像度の屋内および屋外ビデオから143K以上の注釈付きフレームを特徴としている。
フレーム当たりの精度を高めるため,キャリブレーション実験の総合的なルックアップテーブルを構築し,Kalibrツールボックスを拡張して精度とロバスト性を向上させる。
本ベンチマークを用いて,カメラの内在性を予測するための既存のベースライン手法を評価し,ダイナミックな内在性を持つビデオの正確な予測に苦慮している。
データセット、コード、ビデオ、投稿については、https://influx.cs.princeton.edu/.com/を参照してください。
関連論文リスト
- AnyCam: Learning to Recover Camera Poses and Intrinsics from Casual Videos [52.726585508669686]
我々は,動的ビデオシーケンスからカメラのポーズと内在性を直接推定する高速トランスフォーマーモデルであるAnyCamを提案する。
確立したデータセット上でAnyCamをテストし、質的にも量的にも正確なカメラポーズと本質的な機能を提供します。
カメラ情報、不確実性、深さを組み合わせることで、我々のモデルは高品質な4Dポイントクラウドを作り出すことができる。
論文 参考訳(メタデータ) (2025-03-30T02:22:11Z) - ReCamMaster: Camera-Controlled Generative Rendering from A Single Video [72.42376733537925]
ReCamMasterは、カメラ制御された生成ビデオの再レンダリングフレームワークである。
これは、新しいカメラ軌道における入力ビデオのダイナミックなシーンを再現する。
また,ビデオの安定化,超高解像度化,画質向上に有望な応用を見出した。
論文 参考訳(メタデータ) (2025-03-14T17:59:31Z) - MegaSaM: Accurate, Fast, and Robust Structure and Motion from Casual Dynamic Videos [104.1338295060383]
本研究では,ダイナミックシーンのカジュアルモノクラー映像から,カメラパラメータと奥行きマップの精度,高速,堅牢な推定を可能にするシステムを提案する。
本システムは,先行作業や同時作業と比較して,カメラポーズや深度推定において有意に精度が高く,頑健である。
論文 参考訳(メタデータ) (2024-12-05T18:59:42Z) - RoDyGS: Robust Dynamic Gaussian Splatting for Casual Videos [39.384910552854926]
本稿では,カジュアルビデオから動的ガウススプラッティングを最適化するRoDyGSを提案する。
動的プリミティブと静的プリミティブを分離することで、シーンの動きと下層の幾何学を効果的に学習する。
また,広視野カメラとオブジェクトモーションと同時マルチビューキャプチャを提供する,包括的なベンチマークであるKubric-MRigを導入している。
論文 参考訳(メタデータ) (2024-12-04T07:02:49Z) - CamI2V: Camera-Controlled Image-to-Video Diffusion Model [11.762824216082508]
統合カメラポーズは、ビデオ拡散モデルにおけるユーザフレンドリーで物理インフォームド条件であり、正確なカメラ制御を可能にする。
重要な課題の1つは、幾何学的整合性とカメラ制御性を高めるために、ノイズの多いクロスフレーム相互作用を効果的にモデル化することである。
我々は,条件の品質と不確実性を低減し,ノイズのあるクロスフレーム特徴をノイズのある状態の形で解釈する能力とを革新的に関連付ける。
論文 参考訳(メタデータ) (2024-10-21T12:36:27Z) - Cavia: Camera-controllable Multi-view Video Diffusion with View-Integrated Attention [62.2447324481159]
Caviaはカメラ制御可能なマルチビュービデオ生成のための新しいフレームワークである。
我々のフレームワークは、空間的および時間的注意モジュールを拡張し、視点と時間的一貫性を改善します。
Caviaは、ユーザーが物体の動きを取得しながら、異なるカメラの動きを特定できる最初の製品だ。
論文 参考訳(メタデータ) (2024-10-14T17:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。