論文の概要: Enhancing Safety of Foundation Models for Visual Navigation through Collision Avoidance via Repulsive Estimation
- arxiv url: http://arxiv.org/abs/2506.03834v2
- Date: Tue, 10 Jun 2025 13:15:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 12:52:34.257873
- Title: Enhancing Safety of Foundation Models for Visual Navigation through Collision Avoidance via Repulsive Estimation
- Title(参考訳): 反発推定による衝突回避による視覚ナビゲーションのための基礎モデルの安全性向上
- Authors: Joonkyung Kim, Joonyeol Sim, Woojun Kim, Katia Sycara, Changjoo Nam,
- Abstract要約: CARE(Collision Avoidance via Repulsive Estimation)は、視覚に基づくナビゲーションのためのモジュールである。
これは、追加のレンジセンサーや事前訓練されたモデルの微調整を必要とせずに、視覚ベースのナビゲーションの安全性を高める。
CAREは、目標達成性能を犠牲にすることなく、一貫して衝突率(最大100%)を下げる。
- 参考スコア(独自算出の注目度): 6.216878556851609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose CARE (Collision Avoidance via Repulsive Estimation), a plug-and-play module that enhances the safety of vision-based navigation without requiring additional range sensors or fine-tuning of pretrained models. While recent foundation models using only RGB inputs have shown strong performance, they often fail to generalize in out-of-distribution (OOD) environments with unseen objects or variations in camera parameters (e.g., field of view, pose, or focal length). Without fine-tuning, these models may generate unsafe trajectories that lead to collisions, requiring costly data collection and retraining. CARE addresses this limitation by seamlessly integrating with any RGB-based navigation system that outputs local trajectories, dynamically adjusting them using repulsive force vectors derived from monocular depth maps. We evaluate CARE by combining it with state-of-the-art vision-based navigation models across multiple robot platforms. CARE consistently reduces collision rates (up to 100%) without sacrificing goal-reaching performance and improves collision-free travel distance by up to 10.7x in exploration tasks.
- Abstract(参考訳): 本稿では、追加のレンジセンサーや事前訓練されたモデルの微調整を必要とせず、視覚ベースのナビゲーションの安全性を高めるプラグイン・アンド・プレイ・モジュールであるCAREを提案する。
近年のRGB入力のみを用いた基礎モデルは高い性能を示してきたが、不明瞭なオブジェクトやカメラパラメータ(例えば、視野、ポーズ、焦点距離)のバリエーションを持つオフ・オブ・ディストリビューション(OOD)環境での一般化に失敗することが多い。
微調整なしでは、これらのモデルは衝突につながる安全でない軌道を生成し、高価なデータ収集と再訓練を必要とする。
CAREは、局所軌道を出力するRGBベースのナビゲーションシステムとシームレスに統合することで、この制限に対処する。
複数のロボットプラットフォームにまたがる最先端の視覚ベースのナビゲーションモデルと組み合わせてCAREを評価する。
CAREは目標達成性能を犠牲にすることなく、衝突率(最大100%)を一貫して削減し、探査作業において衝突のない走行距離を最大10.7倍改善する。
関連論文リスト
- Improving Collision-Free Success Rate For Object Goal Visual Navigation Via Two-Stage Training With Collision Prediction [0.0]
衝突のない成功は、航法モデルが対象物に向かって衝突のない経路を見つける能力を評価するために導入された。
既存の航法モデルの衝突のない成功率を改善するために,衝突予測を伴う2段階の訓練手法を提案する。
論文 参考訳(メタデータ) (2025-02-19T07:33:10Z) - Monocular Obstacle Avoidance Based on Inverse PPO for Fixed-wing UAVs [29.207513994002202]
固定翼無人航空機(英語: Fixed-wing Unmanned Aerial Vehicles、UAV)は、低高度経済(LAE)と都市空運(UAM)のための最も一般的なプラットフォームの一つである。
従来の地図や高度なセンサーに依存する古典的な障害物回避システムは、未知の低高度環境や小型UAVプラットフォームにおいて制限に直面している。
本稿では,DRLに基づくUAV衝突回避システムを提案する。
論文 参考訳(メタデータ) (2024-11-27T03:03:37Z) - DECADE: Towards Designing Efficient-yet-Accurate Distance Estimation Modules for Collision Avoidance in Mobile Advanced Driver Assistance Systems [5.383130566626935]
本稿では,距離推定モデルであるDECADEについて述べる。
これらのモジュールを任意の検出器にアタッチして物体検出を高速な距離推定で拡張できることを実証する。
論文 参考訳(メタデータ) (2024-10-25T06:40:42Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - CabiNet: Scaling Neural Collision Detection for Object Rearrangement
with Procedural Scene Generation [54.68738348071891]
私たちはまず、さまざまな日常環境において、650万以上の散らばったシーン(前よりも桁違いに多い)を生成します。
このデータから合成部分点雲をレンダリングし、それをCabiNetモデルアーキテクチャのトレーニングに使用します。
CabiNetは、オブジェクトとシーンポイントの雲を受け入れる衝突モデルである。
論文 参考訳(メタデータ) (2023-04-18T21:09:55Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Object Rearrangement Using Learned Implicit Collision Functions [61.90305371998561]
本研究では,シーン内の6DOFオブジェクトのポーズに対して,シーンとクエリ対象点の雲を受け付け,衝突を予測できる学習的衝突モデルを提案する。
我々は,テーブルトップ再構成タスクにおけるモデル予測経路積分(MPPI)ポリシーの一部として,学習された衝突モデルを活用する。
学習モデルは従来のパイプラインよりも優れており、シミュレーションされた衝突クエリのデータセット上では9.8%の精度で学習精度が向上している。
論文 参考訳(メタデータ) (2020-11-21T05:36:06Z) - Domain Adaptation for Outdoor Robot Traversability Estimation from RGB
data with Safety-Preserving Loss [12.697106921197701]
本稿では,車載RGBカメラの視野内で異なる経路のトラバーススコアを推定し,予測する深層学習に基づくアプローチを提案する。
次に、勾配反転非教師付き適応によるドメインシフトに対処することで、モデルの能力を向上する。
実験結果から,本手法は移動可能領域を良好に同定し,目に見えない場所に一般化できることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T09:19:33Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。