論文の概要: Aligning Explanations with Human Communication
- arxiv url: http://arxiv.org/abs/2505.15626v1
- Date: Wed, 21 May 2025 15:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.726014
- Title: Aligning Explanations with Human Communication
- Title(参考訳): ヒューマンコミュニケーションによる説明の調整
- Authors: Jacopo Teneggi, Zhenzhen Wang, Paul H. Yi, Tianmin Shu, Jeremias Sulam,
- Abstract要約: 本稿では,実践的推論の原理に基づく反復的手続きと,コミュニケーションの利便性を最大化する説明文を生成する合理的な発話法を提案する。
本手法を画像分類タスクにおいて評価し、3つのデータセット間の説明とリスナーの嗜好の整合性の向上を示す。
- 参考スコア(独自算出の注目度): 16.285213687701187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning explainability aims to make the decision-making process of black-box models more transparent by finding the most important input features for a given prediction task. Recent works have proposed composing explanations from semantic concepts (e.g., colors, patterns, shapes) that are inherently interpretable to the user of a model. However, these methods generally ignore the communicative context of explanation-the ability of the user to understand the prediction of the model from the explanation. For example, while a medical doctor might understand an explanation in terms of clinical markers, a patient may need a more accessible explanation to make sense of the same diagnosis. In this paper, we address this gap with listener-adaptive explanations. We propose an iterative procedure grounded in principles of pragmatic reasoning and the rational speech act to generate explanations that maximize communicative utility. Our procedure only needs access to pairwise preferences between candidate explanations, relevant in real-world scenarios where a listener model may not be available. We evaluate our method in image classification tasks, demonstrating improved alignment between explanations and listener preferences across three datasets. Furthermore, we perform a user study that demonstrates our explanations increase communicative utility.
- Abstract(参考訳): 機械学習の説明可能性とは、与えられた予測タスクにおいて最も重要な入力機能を見つけることによって、ブラックボックスモデルの意思決定プロセスをより透過的にすることを目的としている。
近年の研究では、モデルの使用者に対して本質的に解釈可能な意味概念(色、パターン、形状など)からの説明が提案されている。
しかし、これらの手法は一般的に説明のコミュニケーション的文脈を無視しており、ユーザーは説明からモデルの予測を理解することができる。
例えば、医師は臨床マーカーの観点で説明を理解できるが、患者は同じ診断を理解するために、よりアクセスしやすい説明が必要であるかもしれない。
本稿では,このギャップをリスナー適応的な説明を用いて解決する。
本稿では,実践的推論の原理に基づく反復的手続きと,コミュニケーションの利便性を最大化する説明文を生成する合理的な発話法を提案する。
我々の手順は、リスナーモデルが利用できない現実のシナリオにおいて、候補説明間のペアワイズな選好へのアクセスのみを必要とする。
本手法を画像分類タスクにおいて評価し、3つのデータセット間の説明とリスナーの嗜好の整合性の向上を示す。
さらに,コミュニケーション性の向上を実証するユーザスタディも実施している。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explaining black-box text classifiers for disease-treatment information
extraction [12.323983512532651]
ポストホックな説明法はブラックボックスAIモデルの振る舞いを近似することができる。
医療概念とセマンティクスを説明プロセスに組み込むことで,インプットとアウトプットのセマンティクスの関係を見出す。
論文 参考訳(メタデータ) (2020-10-21T09:58:00Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - LIMEtree: Consistent and Faithful Surrogate Explanations of Multiple Classes [7.031336702345381]
マルチクラス説明の新しいパラダイムを紹介する。
LIMEtree と呼ばれる多出力回帰木に基づく局所代理モデルを提案する。
強い忠実性の保証に加えて、我々の実装は多様な説明型を提供します。
論文 参考訳(メタデータ) (2020-05-04T12:31:29Z) - The Explanation Game: Towards Prediction Explainability through Sparse
Communication [6.497816402045099]
我々は,説明責任の統一的な視点を,説明者と素人の間の問題として提供する。
このフレームワークを使って、説明の抽出にいくつかの先行したアプローチを比較します。
本稿では,選択的,スパースな注意力を用いて,説明可能性のための新しい組込み手法を提案する。
論文 参考訳(メタデータ) (2020-04-28T22:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。