論文の概要: YOWO: You Only Walk Once to Jointly Map An Indoor Scene and Register Ceiling-mounted Cameras
- arxiv url: http://arxiv.org/abs/2511.16521v1
- Date: Thu, 20 Nov 2025 16:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.722221
- Title: YOWO: You Only Walk Once to Jointly Map An Indoor Scene and Register Ceiling-mounted Cameras
- Title(参考訳): YOWO: 屋内シーンとシーリングマウントカメラの同時マップは一度だけ
- Authors: Fan Yang, Sosuke Yamao, Ikuo Kusajima, Atsunori Moteki, Shoichi Masui, Shan Jiang,
- Abstract要約: 本研究では,屋内シーンを共同でマッピングし,CMCをシーンレイアウトに登録する手法を提案する。
我々のアプローチでは、ヘッドマウントされたRGB-Dカメラを搭載した移動体エージェントを一度にシーン全体を横切り、CMCを同期させてこの移動体エージェントをキャプチャする。
全ての軌道と対応するタイムスタンプを関連付けることで、CMCの相対的なポーズを世界座標のシーンレイアウトに合わせることができる。
- 参考スコア(独自算出の注目度): 5.268347724516874
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using ceiling-mounted cameras (CMCs) for indoor visual capturing opens up a wide range of applications. However, registering CMCs to the target scene layout presents a challenging task. While manual registration with specialized tools is inefficient and costly, automatic registration with visual localization may yield poor results when visual ambiguity exists. To alleviate these issues, we propose a novel solution for jointly mapping an indoor scene and registering CMCs to the scene layout. Our approach involves equipping a mobile agent with a head-mounted RGB-D camera to traverse the entire scene once and synchronize CMCs to capture this mobile agent. The egocentric videos generate world-coordinate agent trajectories and the scene layout, while the videos of CMCs provide pseudo-scale agent trajectories and CMC relative poses. By correlating all the trajectories with their corresponding timestamps, the CMC relative poses can be aligned to the world-coordinate scene layout. Based on this initialization, a factor graph is customized to enable the joint optimization of ego-camera poses, scene layout, and CMC poses. We also develop a new dataset, setting the first benchmark for collaborative scene mapping and CMC registration (https://sites.google.com/view/yowo/home). Experimental results indicate that our method not only effectively accomplishes two tasks within a unified framework, but also jointly enhances their performance. We thus provide a reliable tool to facilitate downstream position-aware applications.
- Abstract(参考訳): 天井搭載カメラ(CMC)を室内の視覚撮影に使用すると、幅広い用途が開ける。
しかし、CMCをターゲットのシーンレイアウトに登録することは難しい課題である。
特殊ツールによる手動の登録は非効率でコストがかかるが、視覚的位置付けによる自動的な登録は、視覚的あいまいさが存在する場合、不十分な結果をもたらす可能性がある。
これらの問題を緩和するために,屋内シーンを共同でマッピングし,CMCをシーンレイアウトに登録する新しい手法を提案する。
我々のアプローチでは、ヘッドマウントされたRGB-Dカメラを搭載した移動体エージェントを一度にシーン全体を横切り、CMCを同期させてこの移動体エージェントをキャプチャする。
エゴセントリックビデオはワールドコーディネートエージェントの軌跡とシーンレイアウトを生成し、CMCのビデオは擬似スケールエージェントの軌跡とCMCの相対的なポーズを提供する。
全ての軌道と対応するタイムスタンプを関連付けることで、CMCの相対的なポーズを世界座標のシーンレイアウトに合わせることができる。
この初期化に基づいて、エゴカメラポーズ、シーンレイアウト、CMCポーズのジョイント最適化を可能にするために、ファクタグラフがカスタマイズされる。
また、共同シーンマッピングとCMC登録のための最初のベンチマーク(https://sites.google.com/view/yowo/home)を作成した新しいデータセットも開発しています。
実験結果から,本手法は統合フレームワーク内の2つのタスクを効果的に達成するだけでなく,協調的に性能を向上させることが示唆された。
これにより、下流位置認識アプリケーションを容易にするための信頼性の高いツールを提供する。
関連論文リスト
- RealCam-I2V: Real-World Image-to-Video Generation with Interactive Complex Camera Control [12.80337762745075]
RealCam-I2Vはモノクロメートル法深度推定を統合する新しいビデオ生成フレームワークである。
トレーニング中、再構成された3Dシーンは、メトリックスケールに対するカメラパラメータのスケーリングを可能にする。
RealCam-I2Vは、RealEstate10Kおよびドメイン外画像の制御性とビデオ品質を大幅に改善する。
論文 参考訳(メタデータ) (2025-02-14T10:21:49Z) - RoMo: Robust Motion Segmentation Improves Structure from Motion [46.77236343300953]
本稿では,固定世界フレームを移動中のシーンの構成要素を特定するために,映像に基づくモーションセグメンテーションの新たなアプローチを提案する。
我々の単純かつ効果的な反復法であるRoMoは、光フローとエピポーラキューと事前訓練されたビデオセグメンテーションモデルを組み合わせたものである。
さらに重要なのは、市販のSfMパイプラインとセグメンテーションマスクを組み合わせることで、ダイナミックなコンテンツを持つシーンに対する最先端のカメラキャリブレーションを新たに確立し、既存の手法を実質的なマージンで上回ることだ。
論文 参考訳(メタデータ) (2024-11-27T01:09:56Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [87.1077910795879]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - UCMCTrack: Multi-Object Tracking with Uniform Camera Motion Compensation [9.333052173412158]
カメラの動きに頑健な新しいモーションモデルベースのトラッカーであるUCMCTrackを紹介する。
フレーム単位で補償パラメータを計算する従来のCMCとは異なり、UCMCTrackはビデオシーケンスを通して同じ補償パラメータを一貫して適用する。
MOT17、MOT20、DanceTrack、KITTIなど、さまざまな課題のあるデータセットで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-12-14T14:01:35Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。