論文の概要: ToP-ToM: Trust-aware Robot Policy with Theory of Mind
- arxiv url: http://arxiv.org/abs/2311.04397v1
- Date: Tue, 7 Nov 2023 23:55:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-09 17:30:19.042643
- Title: ToP-ToM: Trust-aware Robot Policy with Theory of Mind
- Title(参考訳): ToP-ToM: 信頼を意識したロボット政策
- Authors: Chuang Yu, Baris Serhan and Angelo Cangelosi
- Abstract要約: 心の理論 (Theory of Mind, ToM) は、人間に心的状態を他者に与える能力を与える認知的アーキテクチャである。
本稿では,マルチエージェント環境下での心の理論による信頼を意識したロボット政策について検討する。
- 参考スコア(独自算出の注目度): 3.4850414292716327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Theory of Mind (ToM) is a fundamental cognitive architecture that endows
humans with the ability to attribute mental states to others. Humans infer the
desires, beliefs, and intentions of others by observing their behavior and, in
turn, adjust their actions to facilitate better interpersonal communication and
team collaboration. In this paper, we investigated trust-aware robot policy
with the theory of mind in a multiagent setting where a human collaborates with
a robot against another human opponent. We show that by only focusing on team
performance, the robot may resort to the reverse psychology trick, which poses
a significant threat to trust maintenance. The human's trust in the robot will
collapse when they discover deceptive behavior by the robot. To mitigate this
problem, we adopt the robot theory of mind model to infer the human's trust
beliefs, including true belief and false belief (an essential element of ToM).
We designed a dynamic trust-aware reward function based on different trust
beliefs to guide the robot policy learning, which aims to balance between
avoiding human trust collapse due to robot reverse psychology. The experimental
results demonstrate the importance of the ToM-based robot policy for
human-robot trust and the effectiveness of our robot ToM-based robot policy in
multiagent interaction settings.
- Abstract(参考訳): 心の理論 (Theory of Mind, ToM) は、人間に心的状態を他人に与える能力を与える基本的な認知アーキテクチャである。
人間は自分の行動を観察することで他人の欲求、信念、意図を推測し、その結果、より良い対人コミュニケーションとチームコラボレーションを促進するために行動を調整する。
本論文では,人間同士がロボットと協力するマルチエージェント環境で,信頼を意識したロボット政策を心の理論を用いて検討した。
チームパフォーマンスにのみ焦点をあてることで、ロボットは逆心理学のトリックに頼り、メンテナンスを信頼する上で大きな脅威となる可能性がある。
人間のロボットへの信頼は、ロボットによる欺きの行動を発見すると崩壊する。
この問題を軽減するため,我々はロボットマインドモデルを採用し,真の信念や虚偽の信念(トムの本質的要素)を含む人間の信頼信念を推論する。
我々は,ロボットの方針学習を指導するために,異なる信頼信念に基づく動的信頼認識報酬関数を設計し,ロボットの逆心理学による人間の信頼崩壊回避のバランスをとることを目的とした。
実験結果から,人間ロボット信頼のためのToM型ロボットポリシーの重要性と,マルチエージェントインタラクション設定におけるToM型ロボットポリシーの有効性が示された。
関連論文リスト
- HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - "Do it my way!": Impact of Customizations on Trust perceptions in
Human-Robot Collaboration [0.8287206589886881]
補助ロボットのパーソナライゼーションは,ロボットの採用やユーザ認知と正の相関関係にある。
以上の結果から,カスタマイズ度の増加は高い信頼感と快適感に結びついていることが示唆された。
論文 参考訳(メタデータ) (2023-10-28T19:31:40Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - The dynamic nature of trust: Trust in Human-Robot Interaction revisited [0.38233569758620045]
社会支援ロボット(SAR)は、現実世界の人間を支援するロボットである。
リスクは信頼の要素をもたらすので、ロボットに対する人間の信頼を理解することは必須である。
論文 参考訳(メタデータ) (2023-03-08T19:20:11Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Evaluation of Performance-Trust vs Moral-Trust Violation in 3D
Environment [1.4502611532302039]
本研究の目的は,探索・救助シナリオにおいて,パフォーマンストラスト違反とモラルトラスト違反がもたらす影響を調査する実験を設計することである。
同じようなロボットの障害が2つあり、1つはパフォーマンストラスト違反によるもので、もう1つはモラルトラスト違反によるもので、人間の信頼に明確な影響があるかどうかを確認したい。
論文 参考訳(メタデータ) (2022-06-30T17:27:09Z) - Moral-Trust Violation vs Performance-Trust Violation by a Robot: Which
Hurts More? [0.7373617024876725]
探索救助作業において,パフォーマンストラスト違反とモラルトラスト違反を別々に検討した。
1つの失敗がパフォーマンストラスト違反によるもので、もう1つの失敗がモラルトラスト違反である場合、同じ大きさのロボットの2つの失敗が人間の信頼に異なる影響を与えるかどうかを確認したい。
論文 参考訳(メタデータ) (2021-10-09T00:32:18Z) - Trust-Aware Planning: Modeling Trust Evolution in Longitudinal
Human-Robot Interaction [21.884895329834112]
本稿では,人間-ロボット間インタラクションにおける信頼をキャプチャし,変調する計算モデルを提案する。
我々のモデルでは、ロボットは人間の信頼とロボットからの期待をその計画プロセスに統合し、相互作用の地平線に対する信頼を構築し維持する。
論文 参考訳(メタデータ) (2021-05-03T23:38:34Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。