論文の概要: Providing personalized Explanations: a Conversational Approach
- arxiv url: http://arxiv.org/abs/2307.11452v1
- Date: Fri, 21 Jul 2023 09:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 13:02:03.688874
- Title: Providing personalized Explanations: a Conversational Approach
- Title(参考訳): パーソナライズされた説明を提供する:会話的アプローチ
- Authors: Jieting Luo, Thomas Studer, Mehdi Dastani
- Abstract要約: そこで本稿では,説明者との対話を通じて,パーソナライズされた説明を説明人に伝達する手法を提案する。
我々は、説明人が理解し、説明者が認識している最初の主張についての説明が存在する限り、説明人が最初の主張を正当化しているため、会話が終了することを証明する。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing applications of AI systems require personalized explanations
for their behaviors to various stakeholders since the stakeholders may have
various knowledge and backgrounds. In general, a conversation between
explainers and explainees not only allows explainers to obtain the explainees'
background, but also allows explainees to better understand the explanations.
In this paper, we propose an approach for an explainer to communicate
personalized explanations to an explainee through having consecutive
conversations with the explainee. We prove that the conversation terminates due
to the explainee's justification of the initial claim as long as there exists
an explanation for the initial claim that the explainee understands and the
explainer is aware of.
- Abstract(参考訳): aiシステムの応用が増えているため、利害関係者はさまざまな知識や背景を持っている可能性があるため、さまざまな利害関係者に対する行動のパーソナライズされた説明が必要となる。
一般に、説明者と説明者の会話は、説明者の背景を得るだけでなく、説明者が説明をよりよく理解することを可能にする。
本稿では,説明者との対話を通じて,パーソナライズされた説明を説明人に伝達する手法を提案する。
説明者が理解し、説明者が認識している最初の主張に対して説明がある限り、説明者の最初の主張の正当化によって会話が終了することを証明する。
関連論文リスト
- Explainers' Mental Representations of Explainees' Needs in Everyday Explanations [0.0]
説明において、説明者は説明者の知識の発達と説明に関する関心の変化を精神的に表現する。
XAIは、同様の方法で説明者の要求に反応できるべきです。
本研究では,工芸品の日常的説明における説明者の心的表現について検討した。
論文 参考訳(メタデータ) (2024-11-13T10:53:07Z) - Modeling the Quality of Dialogical Explanations [21.429245729478918]
本研究では,説明者と説明者の相互作用の観点から,説明対話について検討する。
対話の流れを分析し、専門家の対話に現れるものと比較する。
長い入力を処理できる2つの言語モデルを用いてインタラクションフローを符号化する。
論文 参考訳(メタデータ) (2024-03-01T16:49:55Z) - FaithLM: Towards Faithful Explanations for Large Language Models [67.29893340289779]
大きな言語モデル(LLM)は、内部知識と推論能力を活用することで複雑なタスクに対処するのに熟練している。
これらのモデルのブラックボックスの性質は、意思決定プロセスを説明するタスクを複雑にしている。
自然言語 (NL) による LLM の決定を説明するために FaithLM を紹介した。
論文 参考訳(メタデータ) (2024-02-07T09:09:14Z) - May I Ask a Follow-up Question? Understanding the Benefits of Conversations in Neural Network Explainability [17.052366688978935]
自由形式の会話が静的な説明の理解を深めるかどうかを検討する。
参加者が3つの機械学習モデルから選択できる能力に会話が与える影響を計測する。
本研究は,自由形式の会話形式におけるモデル説明のカスタマイズの重要性を強調した。
論文 参考訳(メタデータ) (2023-09-25T09:00:38Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。