論文の概要: When Humans Aren't Optimal: Robots that Collaborate with Risk-Aware
Humans
- arxiv url: http://arxiv.org/abs/2001.04377v1
- Date: Mon, 13 Jan 2020 16:27:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 23:45:04.210200
- Title: When Humans Aren't Optimal: Robots that Collaborate with Risk-Aware
Humans
- Title(参考訳): 人間が最適でないとき:危険に敏感な人間とコラボするロボット
- Authors: Minae Kwon, Erdem Biyik, Aditi Talati, Karan Bhasin, Dylan P. Losey,
Dorsa Sadigh
- Abstract要約: 安全かつ効率的に協力するためには、ロボットは人間のパートナーがどのように振る舞うかを予測する必要がある。
本稿では,累積プロスペクト理論(Cumulative Prospect Theory)と呼ばれる行動経済学から,よく知られたリスク対応人間モデルを採用する。
これにより、モデリング精度が向上し、より安全で効率的な人間とロボットのコラボレーションがもたらされることが判明した。
- 参考スコア(独自算出の注目度): 16.21572727245082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to collaborate safely and efficiently, robots need to anticipate how
their human partners will behave. Some of today's robots model humans as if
they were also robots, and assume users are always optimal. Other robots
account for human limitations, and relax this assumption so that the human is
noisily rational. Both of these models make sense when the human receives
deterministic rewards: i.e., gaining either $100 or $130 with certainty. But in
real world scenarios, rewards are rarely deterministic. Instead, we must make
choices subject to risk and uncertainty--and in these settings, humans exhibit
a cognitive bias towards suboptimal behavior. For example, when deciding
between gaining $100 with certainty or $130 only 80% of the time, people tend
to make the risk-averse choice--even though it leads to a lower expected gain!
In this paper, we adopt a well-known Risk-Aware human model from behavioral
economics called Cumulative Prospect Theory and enable robots to leverage this
model during human-robot interaction (HRI). In our user studies, we offer
supporting evidence that the Risk-Aware model more accurately predicts
suboptimal human behavior. We find that this increased modeling accuracy
results in safer and more efficient human-robot collaboration. Overall, we
extend existing rational human models so that collaborative robots can
anticipate and plan around suboptimal human behavior during HRI.
- Abstract(参考訳): 安全かつ効率的に協力するためには、ロボットは人間のパートナーの振る舞いを予測する必要がある。
今日のロボットの中には、まるでロボットであるかのように人間をモデル化するものもある。
他のロボットは人間の限界を説明し、この仮定を緩和し、人間は騒々しく合理的である。
どちらのモデルも、人間が決定論的報酬を受けるときに理にかなっている:つまり、100ドルか130ドルを確実に獲得する。
しかし、現実のシナリオでは報酬は決定論的ではない。
代わりに、私たちはリスクと不確実性に従わなければならない。これらの設定において、人間は、最適以下の行動に対する認知バイアスを示す。
例えば、確信を持って100ドルを稼ぐか、あるいはたったの80%の時間だけ130ドルを稼ぐかを決めるとき、人々はリスク回避の選択をする傾向があります。
本稿では、累積プロスペクト理論(Cumulative Prospect Theory)と呼ばれる行動経済学から、よく知られたリスク認識型人間モデルを採用し、ロボットが人間-ロボット相互作用(HRI)の間、このモデルを活用できるようにする。
ユーザ研究では,リスク認識モデルがより正確にヒトの最適行動を予測することを裏付ける証拠を提供する。
これにより、モデリング精度が向上し、より安全で効率的な人間ロボットコラボレーションが実現される。
全体として、既存の合理的な人間モデルを拡張して、協調ロボットがHRI中に最適な人間の行動を予測し、計画することができるようにします。
関連論文リスト
- HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - InteRACT: Transformer Models for Human Intent Prediction Conditioned on Robot Actions [7.574421886354134]
InteRACTアーキテクチャは、大規模な人間と人間のデータセットと小さな人間とロボットのデータセットの微細構造に関する条件付き意図予測モデルを事前訓練する。
実世界の協調的なロボット操作タスクについて評価し、条件付きモデルが様々な限界ベースラインよりも改善されていることを示す。
論文 参考訳(メタデータ) (2023-11-21T19:15:17Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Learning Latent Representations to Co-Adapt to Humans [12.71953776723672]
非定常的な人間はロボット学習者に挑戦しています。
本稿では,ロボットが動的人間と協調して適応できるアルゴリズム形式について紹介する。
論文 参考訳(メタデータ) (2022-12-19T16:19:24Z) - Two ways to make your robot proactive: reasoning about human intentions,
or reasoning about possible futures [69.03494351066846]
ロボットをアクティブにする方法を2つ検討する。
1つの方法は人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することである。
もう1つの方法は、将来起こりうる脅威や機会を推論し、それを防ぐか、または育てるために行動することである。
論文 参考訳(メタデータ) (2022-05-11T13:33:14Z) - Reasoning about Counterfactuals to Improve Human Inverse Reinforcement
Learning [5.072077366588174]
人間は自然に、観察可能な行動について推論することで、他のエージェントの信念や欲求を推測する。
我々は,ロボットの意思決定に対する学習者の現在の理解を,人間のIRLモデルに組み込むことを提案する。
また,人間が見えない環境下でのロボットの動作を予測しにくいことを推定するための新しい尺度を提案する。
論文 参考訳(メタデータ) (2022-03-03T17:06:37Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - Physical Interaction as Communication: Learning Robot Objectives Online
from Human Corrections [33.807697939765205]
物理的人間とロボットの相互作用(pHRI)は、しばしば故意に行われます。
そこで本論文では,pHRIが意図的であれば,ロボットはインタラクションを活用して,人間に許された後でも,現在のタスクの残りを完了させる方法を学ぶことができる,という情報も有益である,と論じる。
以上の結果から,pHRIからの学習がタスクパフォーマンスの向上と満足度の向上につながることが示唆された。
論文 参考訳(メタデータ) (2021-07-06T02:25:39Z) - Dynamically Switching Human Prediction Models for Efficient Planning [32.180808286226075]
ロボットは人間のモデル群にアクセスでき、オンラインで性能計算のトレードオフを評価することができる。
ドライビングシミュレーターを用いた実験では、ロボットが常に最高の人間モデルに匹敵する性能を発揮できることを示した。
論文 参考訳(メタデータ) (2021-03-13T23:48:09Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。