論文の概要: Cycle-Sync: Robust Global Camera Pose Estimation through Enhanced Cycle-Consistent Synchronization
- arxiv url: http://arxiv.org/abs/2511.02329v1
- Date: Tue, 04 Nov 2025 07:31:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.838101
- Title: Cycle-Sync: Robust Global Camera Pose Estimation through Enhanced Cycle-Consistent Synchronization
- Title(参考訳): Cycle-Sync: 拡張サイクル一貫性同期によるロバストなグローバルカメラポーズ推定
- Authors: Shaohan Li, Yunpeng Shi, Gilad Lerman,
- Abstract要約: Cycle-Syncは、カメラのポーズを推定するための堅牢でグローバルなフレームワークである。
私たちの中心となるイノベーションは、メッセージパッシング最小二乗(MPLS)をカメラの位置推定に適応するロケーションソルバです。
我々は、カメラ位置推定のための最強の決定論的精度回復保証を確立する。
- 参考スコア(独自算出の注目度): 16.013493467235367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Cycle-Sync, a robust and global framework for estimating camera poses (both rotations and locations). Our core innovation is a location solver that adapts message-passing least squares (MPLS) -- originally developed for group synchronization -- to camera location estimation. We modify MPLS to emphasize cycle-consistent information, redefine cycle consistencies using estimated distances from previous iterations, and incorporate a Welsch-type robust loss. We establish the strongest known deterministic exact-recovery guarantee for camera location estimation, showing that cycle consistency alone -- without access to inter-camera distances -- suffices to achieve the lowest sample complexity currently known. To further enhance robustness, we introduce a plug-and-play outlier rejection module inspired by robust subspace recovery, and we fully integrate cycle consistency into MPLS for rotation synchronization. Our global approach avoids the need for bundle adjustment. Experiments on synthetic and real datasets show that Cycle-Sync consistently outperforms leading pose estimators, including full structure-from-motion pipelines with bundle adjustment.
- Abstract(参考訳): カメラポーズ(回転と位置の両方)を推定するための堅牢でグローバルなフレームワークであるCycle-Syncを紹介する。
私たちの中心となるイノベーションは、メッセージパッシング最小二乗(MPLS)をカメラの位置推定に適応する位置解決器です。
我々は、サイクル一貫性情報を強調するためにMPLSを変更し、前回のイテレーションから推定した距離を用いてサイクルの成分を再定義し、ウェルシュ型ロバストロスを組み込む。
我々は、カメラ位置推定の最も強力な決定論的正確な回復保証を確立し、カメラ間距離へのアクセスなしに、サイクル一貫性だけで、現在知られている最も低いサンプル複雑さを達成するのに十分であることを示した。
さらにロバスト性を高めるために,ロバストなサブスペースリカバリにインスパイアされたプラグ・アンド・プレイ・アウトリア・リジェクションモジュールを導入し,回転同期のためのMPLSにサイクル整合性を完全に統合する。
我々のグローバルアプローチはバンドル調整の必要性を避ける。
合成データセットと実データセットの実験により、Cycle-Syncは、バンドル調整を伴う完全な構造からのパイプラインを含む、主要なポーズ推定器を一貫して上回っていることが示されている。
関連論文リスト
- PROFusion: Robust and Accurate Dense Reconstruction via Camera Pose Regression and Optimization [21.23419310544054]
リアルタイムの密集したシーン再構築はロボティクスにとって不可欠である。
現在のRGB-D SLAMシステムは、カメラが大きな視点の変化、速い動き、突然の揺れを経験したときに失敗する。
論文 参考訳(メタデータ) (2025-09-29T03:20:49Z) - Stochastic Clock Attention for Aligning Continuous and Ordered Sequences [1.2418532541734193]
我々はアライメントモデルとして機能する連続および順序列に対する注意機構を定式化する。
Transformerのテキスト音声テストベッドでは、この構造により、より安定したアライメントが得られ、グローバルな時間スケーリングに対する堅牢性が向上する。
論文 参考訳(メタデータ) (2025-09-18T07:18:34Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [92.4205087439928]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基盤モデルとの遅延空間アライメントによるクロスモーダルな知識伝達を確立し、データ不足を効果的に軽減する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
この組み合わせのアプローチにより、FUSEはターゲットデータセットに対する軽量デコーダ適応のみを必要とするユニバーサルなイメージイベントを構築することができる。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Tuning-Free Multi-Event Long Video Generation via Synchronized Coupled Sampling [81.37449968164692]
ビデオ全体にわたってデノイングパスを同期する新しい推論フレームワークであるシンクロナイズド結合サンプリング(SynCoS)を提案する。
提案手法は, シームレスな局所遷移を保証し, グローバルコヒーレンスを強制する2つの相補的なサンプリング戦略を組み合わせる。
大規模な実験により、SynCoSは、よりスムーズな遷移とより優れた長距離コヒーレンスを実現し、マルチイベント長ビデオ生成を大幅に改善することが示された。
論文 参考訳(メタデータ) (2025-03-11T16:43:45Z) - DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - Robust Fully-Asynchronous Methods for Distributed Training over General Architecture [11.480605289411807]
分散機械学習問題における完全な同期は、レイテンシ、パッケージの損失、ストラグラーの存在のため、非効率であり、不可能である。
本稿では,R-FAST (Fully-Asynchronous Gradient Tracking Method) を提案する。
論文 参考訳(メタデータ) (2023-07-21T14:36:40Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - From Deterioration to Acceleration: A Calibration Approach to
Rehabilitating Step Asynchronism in Federated Optimization [13.755421424240048]
我々は,局所的な方向を予測的グローバルな方向に調整する新しいアルゴリズムであるtexttFedaGracを提案する。
理論的には、texttFedaGrac は最先端のアプローチよりも収束率の向上を証明している。
論文 参考訳(メタデータ) (2021-12-17T07:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。