論文の概要: A Knowledge Driven Approach to Adaptive Assistance Using Preference
Reasoning and Explanation
- arxiv url: http://arxiv.org/abs/2012.02904v1
- Date: Sat, 5 Dec 2020 00:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 12:01:56.632605
- Title: A Knowledge Driven Approach to Adaptive Assistance Using Preference
Reasoning and Explanation
- Title(参考訳): 選好推論と説明を用いた適応支援への知識駆動アプローチ
- Authors: Jason R. Wilson, Leilani Gilpin, Irina Rabkina
- Abstract要約: 本稿では,ユーザが何をしようとしているのかを推測するために,Analogical Theory of Mindを用いたロボットを提案する。
ユーザーが不確実か混乱している場合、ロボットはユーザーに説明を与える。
- 参考スコア(独自算出の注目度): 3.8673630752805432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a need for socially assistive robots (SARs) to provide transparency
in their behavior by explaining their reasoning. Additionally, the reasoning
and explanation should represent the user's preferences and goals. To work
towards satisfying this need for interpretable reasoning and representations,
we propose the robot uses Analogical Theory of Mind to infer what the user is
trying to do and uses the Hint Engine to find an appropriate assistance based
on what the user is trying to do. If the user is unsure or confused, the robot
provides the user with an explanation, generated by the Explanation
Synthesizer. The explanation helps the user understand what the robot inferred
about the user's preferences and why the robot decided to provide the
assistance it gave. A knowledge-driven approach provides transparency to
reasoning about preferences, assistance, and explanations, thereby facilitating
the incorporation of user feedback and allowing the robot to learn and adapt to
the user.
- Abstract(参考訳): 社会的支援ロボット (SAR) は, 理屈を説明することによって, 行動の透明性を提供する必要がある。
さらに、推論と説明はユーザの好みと目標を表すべきである。
解釈可能な推論と表現の必要性を満たすために,ロボットはマインド理論を用いて,ユーザが何をしようとしているのかを推測し,ヒントエンジンを用いて,ユーザがしようとしていることに基づいて適切な支援を求める。
ユーザが不確実あるいは混乱している場合は、説明合成装置によって生成された説明を提供する。
この説明は、ロボットがユーザの好みについて何を推論したか、そして、ロボットが与えた援助を提供することを決めた理由を理解するのに役立つ。
知識駆動アプローチは、好み、援助、説明に関する推論に対する透明性を提供し、それによって、ユーザのフィードバックの取り込みを促進し、ロボットが学習し、ユーザに適応できるようにする。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Conceptualizing the Relationship between AI Explanations and User Agency [0.9051087836811617]
我々は,ケーススタディと思考実験を通して,ユーザ中心のレンズを通してエージェントと説明の関係を分析する。
提案手法は,利用者が将来的なインタラクションにおいて,より効果的な結果の変換を行えるようにすることで,エージェンシーのためのいくつかの第1ステップの1つとなることが判明した。
論文 参考訳(メタデータ) (2023-12-05T23:56:05Z) - What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Evaluating Human-like Explanations for Robot Actions in Reinforcement
Learning Scenarios [1.671353192305391]
我々は、自律ロボットが行動を実行した後の目標を達成するために、成功の確率から構築された人間のような説明を活用している。
これらの説明は、人工知能の手法の経験がほとんど、あるいはほとんどない人々によって理解されることを意図している。
論文 参考訳(メタデータ) (2022-07-07T10:40:24Z) - Understanding a Robot's Guiding Ethical Principles via Automatically
Generated Explanations [4.393037165265444]
我々は、ユーザーが計画について提案し、自動的に生成された対照的な説明を受けられるように、既存の倫理的枠組みを構築している。
ユーザスタディの結果は、生成された説明は、ロボットの計画の根底にある倫理的原則を理解するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2022-06-20T22:55:00Z) - Explainable Predictive Process Monitoring: A User Evaluation [62.41400549499849]
説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
論文 参考訳(メタデータ) (2022-02-15T22:24:21Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Towards Personalized Explanation of Robot Path Planning via User
Feedback [1.7231251035416644]
本稿では,ユーザフィードバックによるロボット経路計画のパーソナライズされた説明を生成するシステムを提案する。
このシステムは、ユーザのインタラクションを通じて、任意の好みの競合を検出し、解決することができる。
論文 参考訳(メタデータ) (2020-11-01T15:10:43Z) - Towards Transparent Robotic Planning via Contrastive Explanations [1.7231251035416644]
我々はマルコフ決定プロセスに基づくロボット計画政策の対照的な説明概念を定式化する。
本稿では, 選択性, 拘束性, 責任の3つの要因を伴って, 矛盾説明の自動生成手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T19:44:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。