論文の概要: CARE: Enhancing Safety of Visual Navigation through Collision Avoidance via Repulsive Estimation
- arxiv url: http://arxiv.org/abs/2506.03834v4
- Date: Fri, 08 Aug 2025 07:39:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 12:11:10.848456
- Title: CARE: Enhancing Safety of Visual Navigation through Collision Avoidance via Repulsive Estimation
- Title(参考訳): CARE: 反発推定による衝突回避による視覚ナビゲーションの安全性向上
- Authors: Joonkyung Kim, Joonyeol Sim, Woojun Kim, Katia Sycara, Changjoo Nam,
- Abstract要約: 本稿では,学習に基づく視覚ナビゲーション手法の堅牢性を向上させるため,CARE(Collision Avoidance via Repulsive Estimation)を提案する。
CAREは、ローカルなロボット軌道を生成するRGBベースのナビゲーションモデルにシームレスに統合することができる。
我々は、様々なロボットプラットフォームにまたがる最先端のビジュアルナビゲーションモデルと統合することで、CAREを評価する。
- 参考スコア(独自算出の注目度): 6.216878556851609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose CARE (Collision Avoidance via Repulsive Estimation) to improve the robustness of learning-based visual navigation methods. Recently, visual navigation models, particularly foundation models, have demonstrated promising performance by generating viable trajectories using only RGB images. However, these policies can generalize poorly to environments containing out-of-distribution (OOD) scenes characterized by unseen objects or different camera setups (e.g., variations in field of view, camera pose, or focal length). Without fine-tuning, such models could produce trajectories that lead to collisions, necessitating substantial efforts in data collection and additional training. To address this limitation, we introduce CARE, an attachable module that enhances the safety of visual navigation without requiring additional range sensors or fine-tuning of pretrained models. CARE can be integrated seamlessly into any RGB-based navigation model that generates local robot trajectories. It dynamically adjusts trajectories produced by a pretrained model using repulsive force vectors computed from depth images estimated directly from RGB inputs. We evaluate CARE by integrating it with state-of-the-art visual navigation models across diverse robot platforms. Real-world experiments show that CARE significantly reduces collisions (up to 100%) without compromising navigation performance in goal-conditioned navigation, and further improves collision-free travel distance (up to 10.7x) in exploration tasks. Project page: https://airlab-sogang.github.io/CARE/
- Abstract(参考訳): 本稿では,学習に基づく視覚ナビゲーション手法の堅牢性を向上させるため,CARE(Collision Avoidance via Repulsive Estimation)を提案する。
近年、ビジュアルナビゲーションモデル(特に基礎モデル)は、RGB画像のみを用いて実行可能な軌跡を生成することで、有望な性能を示した。
しかしながら、これらのポリシーは、見えないオブジェクトや異なるカメラセットアップ(例えば、視野のバリエーション、カメラポーズ、焦点距離など)によって特徴づけられるアウト・オブ・ディストリビューション(OOD)シーンを含む環境に対して、うまく一般化することができる。
微調整がなければ、そのようなモデルは衝突につながる軌道を生成し、データ収集と追加の訓練にかなりの努力を必要とする。
この制限に対処するために、我々は、追加のレンジセンサーや事前訓練されたモデルの微調整を必要とせず、視覚ナビゲーションの安全性を高めるアタッチ可能なモジュールであるCAREを導入する。
CAREは、ローカルなロボット軌道を生成するRGBベースのナビゲーションモデルにシームレスに統合することができる。
RGB入力から直接推定される深度画像から計算された反発力ベクトルを用いて、事前訓練されたモデルによって生成された軌道を動的に調整する。
我々は、様々なロボットプラットフォームにまたがる最先端のビジュアルナビゲーションモデルと統合することで、CAREを評価する。
実世界の実験では、CAREは目標条件付き航法における航法性能を損なうことなく衝突(最大100%)を著しく低減し、探索作業における衝突のない走行距離(最大10.7倍)をさらに改善している。
プロジェクトページ: https://airlab-sogang.github.io/CARE/
関連論文リスト
- NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - RGBTrack: Fast, Robust Depth-Free 6D Pose Estimation and Tracking [24.866881488130407]
リアルタイムな6Dポーズ推定と追跡のためのロバストなフレームワークRGBTrackを導入する。
我々は、深度を効率的に推測するレンダリング・アンド・コンパートメント機構と組み合わせた、新しいバイナリ検索戦略を考案した。
RGBTrackの新たなディープフリーアプローチは,競合精度とリアルタイム性能を実現する。
論文 参考訳(メタデータ) (2025-06-20T16:19:28Z) - Human-Robot Navigation using Event-based Cameras and Reinforcement Learning [1.7614751781649955]
この研究は、イベントカメラと他のセンサーと強化学習を組み合わせたロボットナビゲーションコントローラを導入し、リアルタイムの人間中心ナビゲーションと障害物回避を可能にした。
固定レートで動作し、動きのぼやけや遅延に悩まされる従来のイメージベースコントローラとは異なり、このアプローチはイベントカメラの非同期特性を活用して、フレキシブルな時間間隔で視覚情報を処理する。
論文 参考訳(メタデータ) (2025-06-12T15:03:08Z) - Improving Collision-Free Success Rate For Object Goal Visual Navigation Via Two-Stage Training With Collision Prediction [0.0]
衝突のない成功は、航法モデルが対象物に向かって衝突のない経路を見つける能力を評価するために導入された。
既存の航法モデルの衝突のない成功率を改善するために,衝突予測を伴う2段階の訓練手法を提案する。
論文 参考訳(メタデータ) (2025-02-19T07:33:10Z) - Monocular Obstacle Avoidance Based on Inverse PPO for Fixed-wing UAVs [29.207513994002202]
固定翼無人航空機(英語: Fixed-wing Unmanned Aerial Vehicles、UAV)は、低高度経済(LAE)と都市空運(UAM)のための最も一般的なプラットフォームの一つである。
従来の地図や高度なセンサーに依存する古典的な障害物回避システムは、未知の低高度環境や小型UAVプラットフォームにおいて制限に直面している。
本稿では,DRLに基づくUAV衝突回避システムを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:03:37Z) - DECADE: Towards Designing Efficient-yet-Accurate Distance Estimation Modules for Collision Avoidance in Mobile Advanced Driver Assistance Systems [5.383130566626935]
本稿では,距離推定モデルであるDECADEについて述べる。
これらのモジュールを任意の検出器にアタッチして物体検出を高速な距離推定で拡張できることを実証する。
論文 参考訳(メタデータ) (2024-10-25T06:40:42Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - Space Non-cooperative Object Active Tracking with Deep Reinforcement
Learning [1.212848031108815]
DRLAVTと命名されたDQNアルゴリズムに基づくエンドツーエンドのアクティブなトラッキング手法を提案する。
追尾宇宙船のアプローチを、色やRGBD画像にのみ依存した任意の空間の非協力目標に導くことができる。
位置ベースのビジュアルサーボベースラインアルゴリズムでは、最先端の2DモノクロトラッカーであるSiamRPNをはるかに上回っている。
論文 参考訳(メタデータ) (2021-12-18T06:12:24Z) - Memory-Augmented Reinforcement Learning for Image-Goal Navigation [67.3963444878746]
本論文では,クロスエピソードメモリを活用したナビゲーション学習法を提案する。
オーバーフィッティングを避けるため、トレーニング中にRGB入力にデータ拡張を適用することを提案する。
この競合性能はRGB入力のみから得られるが,位置や深度などのセンサは利用できない。
論文 参考訳(メタデータ) (2021-01-13T16:30:20Z) - Object Rearrangement Using Learned Implicit Collision Functions [61.90305371998561]
本研究では,シーン内の6DOFオブジェクトのポーズに対して,シーンとクエリ対象点の雲を受け付け,衝突を予測できる学習的衝突モデルを提案する。
我々は,テーブルトップ再構成タスクにおけるモデル予測経路積分(MPPI)ポリシーの一部として,学習された衝突モデルを活用する。
学習モデルは従来のパイプラインよりも優れており、シミュレーションされた衝突クエリのデータセット上では9.8%の精度で学習精度が向上している。
論文 参考訳(メタデータ) (2020-11-21T05:36:06Z) - Domain Adaptation for Outdoor Robot Traversability Estimation from RGB
data with Safety-Preserving Loss [12.697106921197701]
本稿では,車載RGBカメラの視野内で異なる経路のトラバーススコアを推定し,予測する深層学習に基づくアプローチを提案する。
次に、勾配反転非教師付き適応によるドメインシフトに対処することで、モデルの能力を向上する。
実験結果から,本手法は移動可能領域を良好に同定し,目に見えない場所に一般化できることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T09:19:33Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。