論文の概要: Wait, That Feels Familiar: Learning to Extrapolate Human Preferences for
Preference Aligned Path Planning
- arxiv url: http://arxiv.org/abs/2309.09912v1
- Date: Mon, 18 Sep 2023 16:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:19:55.092968
- Title: Wait, That Feels Familiar: Learning to Extrapolate Human Preferences for
Preference Aligned Path Planning
- Title(参考訳): 親しみやすいもの:優先経路計画のための人間の選好を外挿する学習
- Authors: Haresh Karnan, Elvin Yang, Garrett Warnell, Joydeep Biswas, Peter
Stone
- Abstract要約: Preference ExtrApolation for Terrain awarE Robot Navigation, PATERNは、視覚ナビゲーションのための演算子地形を推定するための新しいフレームワークである。
PATERNは、様々な地形や様々な照明条件に頑健に一般化し、好みに合わせてナビゲートする。
- 参考スコア(独自算出の注目度): 46.66453816117135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous mobility tasks such as lastmile delivery require reasoning about
operator indicated preferences over terrains on which the robot should navigate
to ensure both robot safety and mission success. However, coping with out of
distribution data from novel terrains or appearance changes due to lighting
variations remains a fundamental problem in visual terrain adaptive navigation.
Existing solutions either require labor intensive manual data recollection and
labeling or use handcoded reward functions that may not align with operator
preferences. In this work, we posit that operator preferences for visually
novel terrains, which the robot should adhere to, can often be extrapolated
from established terrain references within the inertial, proprioceptive, and
tactile domain. Leveraging this insight, we introduce Preference extrApolation
for Terrain awarE Robot Navigation, PATERN, a novel framework for extrapolating
operator terrain preferences for visual navigation. PATERN learns to map
inertial, proprioceptive, tactile measurements from the robots observations to
a representation space and performs nearest neighbor search in this space to
estimate operator preferences over novel terrains. Through physical robot
experiments in outdoor environments, we assess PATERNs capability to
extrapolate preferences and generalize to novel terrains and challenging
lighting conditions. Compared to baseline approaches, our findings indicate
that PATERN robustly generalizes to diverse terrains and varied lighting
conditions, while navigating in a preference aligned manner.
- Abstract(参考訳): ラストマイル配送のような自律移動タスクは、ロボットの安全とミッションの成功を確実にするために、ロボットがナビゲートすべき地形よりも、オペレーターに関する推論を必要とする。
しかし、視覚地形適応ナビゲーションでは、新しい地形や照明変化による外観変化からの分布データの取り扱いが根本的な問題となっている。
既存のソリューションでは、労働集約的な手動データリコレクションとラベル付けが必要か、オペレータの好みに合致しないハンドコードによる報酬機能を使うかのどちらかである。
本研究では,ロボットが従うべき視覚的に新しい地形に対するオペレーターの選好が,慣性領域,固有受容領域,触覚領域において確立された地形参照から外挿可能であることを仮定する。
この知見を生かしたPreference extrApolation for Terrain awarE Robot Navigation, PATERNは、視覚ナビゲーションのための演算子地形選好を推定するための新しいフレームワークである。
PATERNは、ロボットの観察から、慣性、受容性、触覚の測定を表現空間にマッピングすることを学び、新しい地形よりもオペレーターの好みを推定するために、この空間で最も近い隣の探索を行う。
屋外環境における物理ロボット実験を通じて,父母の嗜好を外挿し,新しい地形に一般化し,照明条件に挑戦する能力を評価する。
ベースラインアプローチと比較すると,父母は様々な地形や照明条件にロバストに一般化し,順応的にナビゲートできることが示唆された。
関連論文リスト
- Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Learning to navigate efficiently and precisely in real environments [14.52507964172957]
Embodied AIの文献は、HabitatやAI-Thorといったシミュレータで訓練されたエンドツーエンドエージェントに焦点を当てている。
本研究では,sim2realのギャップを最小限に抑えたシミュレーションにおけるエージェントのエンドツーエンドトレーニングについて検討する。
論文 参考訳(メタデータ) (2024-01-25T17:50:05Z) - JRDB-Traj: A Dataset and Benchmark for Trajectory Forecasting in Crowds [79.00975648564483]
ロボット工学、自動運転車、ナビゲーションなどの分野で使用される軌道予測モデルは、現実のシナリオにおいて課題に直面している。
このデータセットは、ロボットの観点から、すべてのエージェント、シーンイメージ、ポイントクラウドの位置を含む包括的なデータを提供する。
本研究の目的は,ロボットに対するエージェントの将来の位置を,生の感覚入力データを用いて予測することである。
論文 参考訳(メタデータ) (2023-11-05T18:59:31Z) - Pre-Trained Masked Image Model for Mobile Robot Navigation [16.330708552384053]
2Dトップダウンマップは、未知の領域を通る移動ロボットのナビゲーションと探索に一般的に使用される。
近年の研究では、学習に基づくアプローチによって環境の構造パターンを予測することにより、タスク効率が大幅に向上することが示されている。
既存の基盤ビジョンネットワークは微調整なしで同じことを実現できることを示す。
論文 参考訳(メタデータ) (2023-10-10T21:16:29Z) - Learning to Grasp on the Moon from 3D Octree Observations with Deep
Reinforcement Learning [0.0]
本研究では,月面物体の視覚に基づくロボットグリップにおける深部強化学習の適用性について検討する。
エージェントを困難な条件下で訓練するために、手続き的に生成されたデータセットを用いた新しいシミュレーション環境を作成する。
モデルなしの非政治的アクター批判アルゴリズムは、ポリシーのエンドツーエンド学習に使用される。
論文 参考訳(メタデータ) (2022-08-01T12:59:03Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Domain Adaptation for Outdoor Robot Traversability Estimation from RGB
data with Safety-Preserving Loss [12.697106921197701]
本稿では,車載RGBカメラの視野内で異なる経路のトラバーススコアを推定し,予測する深層学習に基づくアプローチを提案する。
次に、勾配反転非教師付き適応によるドメインシフトに対処することで、モデルの能力を向上する。
実験結果から,本手法は移動可能領域を良好に同定し,目に見えない場所に一般化できることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T09:19:33Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。