論文の概要: Robot Mindreading and the Problem of Trust
- arxiv url: http://arxiv.org/abs/2003.01238v1
- Date: Mon, 2 Mar 2020 22:55:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-27 05:51:22.564407
- Title: Robot Mindreading and the Problem of Trust
- Title(参考訳): ロボットマインドリーディングと信頼の問題
- Authors: Andr\'es P\'aez
- Abstract要約: 本稿では,ロボットに対する信念,願望,意図の帰属に関する3つの疑問を提起する。
私は、利用可能な証拠が彼らに答えるには不十分であることを示します。
ここでの心配は、ロボットをもっとマインドリーなものにすることで、自動決定プロセスを理解するプロジェクトを捨てようとしていることです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper raises three questions regarding the attribution of beliefs,
desires, and intentions to robots. The first one is whether humans in fact
engage in robot mindreading. If they do, this raises a second question: does
robot mindreading foster trust towards robots? Both of these questions are
empirical, and I show that the available evidence is insufficient to answer
them. Now, if we assume that the answer to both questions is affirmative, a
third and more important question arises: should developers and engineers
promote robot mindreading in view of their stated goal of enhancing
transparency? My worry here is that by attempting to make robots more
mind-readable, they are abandoning the project of understanding automatic
decision processes. Features that enhance mind-readability are prone to make
the factors that determine automatic decisions even more opaque than they
already are. And current strategies to eliminate opacity do not enhance
mind-readability. The last part of the paper discusses different ways to
analyze this apparent trade-off and suggests that a possible solution must
adopt tolerable degrees of opacity that depend on pragmatic factors connected
to the level of trust required for the intended uses of the robot.
- Abstract(参考訳): 本稿では,ロボットに対する信念,願望,意図の帰属に関する3つの疑問を提起する。
1つ目は、人間が実際にロボットのマインドリードに携わっているかどうかです。
ロボットマインドリーダーはロボットに対する信頼を育んでいるのだろうか?
どちらの質問も経験的であり、利用可能な証拠が不十分であることを示します。
開発者とエンジニアは、透明性を高めるという彼らの目標の観点から、ロボットマインドリードを促進するべきか?
ここでの心配は、ロボットをもっとマインドリーなものにすることで、自動決定プロセスを理解するプロジェクトを捨てようとしていることです。
心を読みやすくする機能は、自動決定を決定する要因を、これまで以上に不透明にする傾向がある。
そして、不透明性を取り除く現在の戦略は、心の可読性を高めるものではない。
論文の最後の部分は、この明らかなトレードオフを分析するさまざまな方法について論じており、ロボットが意図する使用に必要な信頼のレベルに関連する実用的要因に依存する許容可能な不透明さのレベルを採用する必要があることを示唆している。
関連論文リスト
- Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - ToP-ToM: Trust-aware Robot Policy with Theory of Mind [3.4850414292716327]
心の理論 (Theory of Mind, ToM) は、人間に心的状態を他者に与える能力を与える認知的アーキテクチャである。
本稿では,マルチエージェント環境下での心の理論による信頼を意識したロボット政策について検討する。
論文 参考訳(メタデータ) (2023-11-07T23:55:56Z) - Aligning Robot and Human Representations [50.070982136315784]
ロボット工学における現在の表現学習アプローチは、表現アライメントの目的がいかにうまく達成されているかの観点から研究されるべきである。
問題を数学的に定義し、その鍵となるデシダータを同定し、この形式主義の中に現在の方法を置く。
論文 参考訳(メタデータ) (2023-02-03T18:59:55Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Two ways to make your robot proactive: reasoning about human intentions,
or reasoning about possible futures [69.03494351066846]
ロボットをアクティブにする方法を2つ検討する。
1つの方法は人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することである。
もう1つの方法は、将来起こりうる脅威や機会を推論し、それを防ぐか、または育てるために行動することである。
論文 参考訳(メタデータ) (2022-05-11T13:33:14Z) - Explain yourself! Effects of Explanations in Human-Robot Interaction [10.389325878657697]
ロボット決定の説明は、ユーザーの知覚に影響を与え、信頼性を正当化し、信頼を高める。
ロボットが人間の知覚に与える影響は、まだ十分に研究されていない。
本研究は、人間とロボットの相互作用を説明する必要性と可能性を示す。
論文 参考訳(メタデータ) (2022-04-09T15:54:27Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - Explainable Autonomous Robots: A Survey and Perspective [0.0]
説明能力の開発は、自律ロボットへの緊急の第一歩です。
この調査は、機械学習研究で議論された様々なタイプの「説明可能性」の概要を提供する。
論文 参考訳(メタデータ) (2021-05-06T13:38:02Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Quantifying Hypothesis Space Misspecification in Learning from
Human-Robot Demonstrations and Physical Corrections [34.53709602861176]
最近の研究は、ロボットがそのようなインプットを使って意図した目的を学習する方法に焦点を当てている。
本研究では,2種類の人間入力から学習する7自由度ロボットマニピュレータについて実験を行った。
論文 参考訳(メタデータ) (2020-02-03T18:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。