論文の概要: Wait, That Feels Familiar: Learning to Extrapolate Human Preferences for
Preference Aligned Path Planning
- arxiv url: http://arxiv.org/abs/2309.09912v1
- Date: Mon, 18 Sep 2023 16:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 12:19:55.092968
- Title: Wait, That Feels Familiar: Learning to Extrapolate Human Preferences for
Preference Aligned Path Planning
- Title(参考訳): 親しみやすいもの:優先経路計画のための人間の選好を外挿する学習
- Authors: Haresh Karnan, Elvin Yang, Garrett Warnell, Joydeep Biswas, Peter
Stone
- Abstract要約: Preference ExtrApolation for Terrain awarE Robot Navigation, PATERNは、視覚ナビゲーションのための演算子地形を推定するための新しいフレームワークである。
PATERNは、様々な地形や様々な照明条件に頑健に一般化し、好みに合わせてナビゲートする。
- 参考スコア(独自算出の注目度): 46.66453816117135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous mobility tasks such as lastmile delivery require reasoning about
operator indicated preferences over terrains on which the robot should navigate
to ensure both robot safety and mission success. However, coping with out of
distribution data from novel terrains or appearance changes due to lighting
variations remains a fundamental problem in visual terrain adaptive navigation.
Existing solutions either require labor intensive manual data recollection and
labeling or use handcoded reward functions that may not align with operator
preferences. In this work, we posit that operator preferences for visually
novel terrains, which the robot should adhere to, can often be extrapolated
from established terrain references within the inertial, proprioceptive, and
tactile domain. Leveraging this insight, we introduce Preference extrApolation
for Terrain awarE Robot Navigation, PATERN, a novel framework for extrapolating
operator terrain preferences for visual navigation. PATERN learns to map
inertial, proprioceptive, tactile measurements from the robots observations to
a representation space and performs nearest neighbor search in this space to
estimate operator preferences over novel terrains. Through physical robot
experiments in outdoor environments, we assess PATERNs capability to
extrapolate preferences and generalize to novel terrains and challenging
lighting conditions. Compared to baseline approaches, our findings indicate
that PATERN robustly generalizes to diverse terrains and varied lighting
conditions, while navigating in a preference aligned manner.
- Abstract(参考訳): ラストマイル配送のような自律移動タスクは、ロボットの安全とミッションの成功を確実にするために、ロボットがナビゲートすべき地形よりも、オペレーターに関する推論を必要とする。
しかし、視覚地形適応ナビゲーションでは、新しい地形や照明変化による外観変化からの分布データの取り扱いが根本的な問題となっている。
既存のソリューションでは、労働集約的な手動データリコレクションとラベル付けが必要か、オペレータの好みに合致しないハンドコードによる報酬機能を使うかのどちらかである。
本研究では,ロボットが従うべき視覚的に新しい地形に対するオペレーターの選好が,慣性領域,固有受容領域,触覚領域において確立された地形参照から外挿可能であることを仮定する。
この知見を生かしたPreference extrApolation for Terrain awarE Robot Navigation, PATERNは、視覚ナビゲーションのための演算子地形選好を推定するための新しいフレームワークである。
PATERNは、ロボットの観察から、慣性、受容性、触覚の測定を表現空間にマッピングすることを学び、新しい地形よりもオペレーターの好みを推定するために、この空間で最も近い隣の探索を行う。
屋外環境における物理ロボット実験を通じて,父母の嗜好を外挿し,新しい地形に一般化し,照明条件に挑戦する能力を評価する。
ベースラインアプローチと比較すると,父母は様々な地形や照明条件にロバストに一般化し,順応的にナビゲートできることが示唆された。
関連論文リスト
- LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - Uncertainty-aware Perception Models for Off-road Autonomous Unmanned
Ground Vehicles [6.2574402913714575]
オフロード自律無人地上車両(UGV)は、遠隔地で重要な物資を供給するために軍用および商業用途のために開発されている。
現在のデータセットは、季節、場所、セマンティッククラス、および日時における多様性の欠如に対する、オフロード自律ナビゲーションのための知覚モデルのトレーニングに使用されています。
本研究では,複数のデータセットを組み合わせてセグメンテーションに基づく環境認識モデルを学習する方法について検討する。
我々は,不確実性を捉えるためにモデルをトレーニングすることで,モデルの性能を著しく向上させることができることを示した。
論文 参考訳(メタデータ) (2022-09-22T15:59:33Z) - Learning to Grasp on the Moon from 3D Octree Observations with Deep
Reinforcement Learning [0.0]
本研究では,月面物体の視覚に基づくロボットグリップにおける深部強化学習の適用性について検討する。
エージェントを困難な条件下で訓練するために、手続き的に生成されたデータセットを用いた新しいシミュレーション環境を作成する。
モデルなしの非政治的アクター批判アルゴリズムは、ポリシーのエンドツーエンド学習に使用される。
論文 参考訳(メタデータ) (2022-08-01T12:59:03Z) - WayFAST: Traversability Predictive Navigation for Field Robots [5.914664791853234]
本稿では,車輪付き移動ロボットの走行経路を予測するための自己教師型アプローチを提案する。
キーとなるインスピレーションは、キノダイナミックモデルを用いてローリングロボットのトラクションを推定できることです。
オンライントラクション推定に基づくトレーニングパイプラインは,他の手法よりもデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-03-22T22:02:03Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Domain Adaptation for Outdoor Robot Traversability Estimation from RGB
data with Safety-Preserving Loss [12.697106921197701]
本稿では,車載RGBカメラの視野内で異なる経路のトラバーススコアを推定し,予測する深層学習に基づくアプローチを提案する。
次に、勾配反転非教師付き適応によるドメインシフトに対処することで、モデルの能力を向上する。
実験結果から,本手法は移動可能領域を良好に同定し,目に見えない場所に一般化できることが示唆された。
論文 参考訳(メタデータ) (2020-09-16T09:19:33Z) - Improving Movement Predictions of Traffic Actors in Bird's-Eye View
Models using GANs and Differentiable Trajectory Rasterization [12.652210024012374]
自動運転パズルの最も重要なピースの1つは、周囲の交通機関の将来の動きを予測するタスクである。
一方はトップダウンのシーン化と他方はGAN(Generative Adrial Networks)に基づく手法が特に成功したことが示されている。
本稿では,これら2つの方向に基づいて,Aversa-based conditional GANアーキテクチャを提案する。
提案手法を実世界の大規模データセット上で評価し,最先端のGANベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-14T00:41:17Z) - Visual Navigation Among Humans with Optimal Control as a Supervisor [72.5188978268463]
そこで本研究では,学習に基づく知覚とモデルに基づく最適制御を組み合わせることで,人間間をナビゲートする手法を提案する。
私たちのアプローチは、新しいデータ生成ツールであるHumANavによって実現されています。
学習したナビゲーションポリシーは、将来の人間の動きを明示的に予測することなく、人間に予測し、反応できることを実証する。
論文 参考訳(メタデータ) (2020-03-20T16:13:47Z) - Learning to Move with Affordance Maps [57.198806691838364]
物理的な空間を自律的に探索し、ナビゲートする能力は、事実上あらゆる移動型自律エージェントの基本的な要件である。
従来のSLAMベースの探索とナビゲーションのアプローチは、主にシーン幾何学の活用に重点を置いている。
学習可能な余剰マップは探索と航法の両方において従来のアプローチの強化に利用でき、性能が大幅に向上することを示します。
論文 参考訳(メタデータ) (2020-01-08T04:05:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。