論文の概要: On Motion Blur and Deblurring in Visual Place Recognition
- arxiv url: http://arxiv.org/abs/2412.07751v1
- Date: Tue, 10 Dec 2024 18:49:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:35:56.592652
- Title: On Motion Blur and Deblurring in Visual Place Recognition
- Title(参考訳): 視覚的位置認識における動きのぼやけと劣化について
- Authors: Timur Ismagilov, Bruno Ferrarini, Michael Milford, Tan Viet Tuyen Nguyen, SD Ramchurn, Shoaib Ehsan,
- Abstract要約: モバイルロボティクスにおける視覚的位置認識(VPR)により、ロボットは視覚データを用いて以前訪れた場所を認識することで、自らをローカライズすることができる。
動きのぼかしの影響は、高速な動きのシナリオだけでなく、長時間の露光が必要な低照度環境でも比較的調査されていない。
本稿では,モーションボケと画像劣化の影響を受けながら,VPR性能を評価するための新しいベンチマークを導入することにより,これらのギャップを埋める。
- 参考スコア(独自算出の注目度): 16.842955231648432
- License:
- Abstract: Visual Place Recognition (VPR) in mobile robotics enables robots to localize themselves by recognizing previously visited locations using visual data. While the reliability of VPR methods has been extensively studied under conditions such as changes in illumination, season, weather and viewpoint, the impact of motion blur is relatively unexplored despite its relevance not only in rapid motion scenarios but also in low-light conditions where longer exposure times are necessary. Similarly, the role of image deblurring in enhancing VPR performance under motion blur has received limited attention so far. This paper bridges these gaps by introducing a new benchmark designed to evaluate VPR performance under the influence of motion blur and image deblurring. The benchmark includes three datasets that encompass a wide range of motion blur intensities, providing a comprehensive platform for analysis. Experimental results with several well-established VPR and image deblurring methods provide new insights into the effects of motion blur and the potential improvements achieved through deblurring. Building on these findings, the paper proposes adaptive deblurring strategies for VPR, designed to effectively manage motion blur in dynamic, real-world scenarios.
- Abstract(参考訳): モバイルロボティクスにおける視覚的位置認識(VPR)により、ロボットは視覚データを用いて以前訪れた場所を認識することで、自らをローカライズすることができる。
照明, 季節, 天気, 視点の変化などの条件下では, VPR法の信頼性は広く研究されているが, 急激な運動シナリオだけでなく, 長時間露光が必要な低照度環境においても, 動きのぼかしの影響は比較的未解明である。
同様に、モーションボケ下でのVPR性能向上における画像劣化の役割は、これまであまり注目されていない。
本稿では,モーションボケと画像劣化の影響を受けながら,VPR性能を評価するための新しいベンチマークを導入することにより,これらのギャップを埋める。
ベンチマークには3つのデータセットが含まれており、幅広い動きのぼかし強度を含み、分析のための総合的なプラットフォームを提供する。
いくつかのよく確立されたVPRと画像のデブロアリングによる実験結果から、運動のぼかしの影響と、デブロアリングによって達成される潜在的な改善に対する新たな洞察が得られる。
これらの知見に基づいて,動的実世界のシナリオにおける動きのぼかしを効果的に管理するVPRの適応的デブロアリング戦略を提案する。
関連論文リスト
- Active Event Alignment for Monocular Distance Estimation [2.9189383211046014]
イベントカメラは、視覚情報の自然で効率的な表現を提供する。
本稿では,イベントカメラデータからオブジェクトワイド距離を推定するための行動駆動手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:34:01Z) - Highly efficient non-rigid registration in k-space with application to cardiac Magnetic Resonance Imaging [10.618048010632728]
非剛性動作推定のためのローカル・オール・パス・アテンション・ネットワーク(LAPANet)と呼ばれる,自己教師型深層学習に基づく新しいフレームワークを提案する。
LAPANetは,種々のサンプリング軌跡と加速度速度で心運動推定を行った。
非剛性運動に対する高時間分解能(5ミリ秒未満)は、動的およびリアルタイムMRIアプリケーションにおける動きの検出、追跡、修正のための新しい道を開く。
論文 参考訳(メタデータ) (2024-10-24T15:19:59Z) - Gyroscope-Assisted Motion Deblurring Network [11.404195533660717]
本稿では、慣性計測ユニット(IMU)データを用いて、動きのぼかし画像の合成と復元を行う枠組みを提案する。
このフレームワークは、3重項生成のトレーニング戦略と、ぼやけた画像復元のためのジャイロスコープ支援モーションデブロアリング(GAMD)ネットワークを含む。
論文 参考訳(メタデータ) (2024-02-10T01:30:24Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z) - PAN: Towards Fast Action Recognition via Learning Persistence of
Appearance [60.75488333935592]
最先端のほとんどの手法は、動きの表現として密度の高い光の流れに大きく依存している。
本稿では,光学的フローに依存することで,高速な動作認識に光を当てる。
我々はPersistence of Outearance(PA)と呼ばれる新しい動きキューを設計する。
光学的流れとは対照的に,我々のPAは境界における運動情報の蒸留に重点を置いている。
論文 参考訳(メタデータ) (2020-08-08T07:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。