論文の概要: Directive Explanations for Actionable Explainability in Machine Learning
Applications
- arxiv url: http://arxiv.org/abs/2102.02671v1
- Date: Wed, 3 Feb 2021 01:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:45:17.448891
- Title: Directive Explanations for Actionable Explainability in Machine Learning
Applications
- Title(参考訳): 機械学習アプリケーションにおける実行可能な説明可能性の指示的説明
- Authors: Ronal Singh, Paul Dourish, Piers Howe, Tim Miller, Liz Sonenberg,
Eduardo Velloso and Frank Vetere
- Abstract要約: 本稿では,機械学習による意思決定の実践を支援するために,ディレクティブな説明を用いることの可能性について検討する。
本研究は、指示的説明に対する人々の認識を調査するオンライン調査の結果である。
このような説明を生成するための概念モデルを提案する。
- 参考スコア(独自算出の注目度): 21.436319317774768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates the prospects of using directive explanations to
assist people in achieving recourse of machine learning decisions. Directive
explanations list which specific actions an individual needs to take to achieve
their desired outcome. If a machine learning model makes a decision that is
detrimental to an individual (e.g. denying a loan application), then it needs
to both explain why it made that decision and also explain how the individual
could obtain their desired outcome (if possible). At present, this is often
done using counterfactual explanations, but such explanations generally do not
tell individuals how to act. We assert that counterfactual explanations can be
improved by explicitly providing people with actions they could use to achieve
their desired goal. This paper makes two contributions. First, we present the
results of an online study investigating people's perception of directive
explanations. Second, we propose a conceptual model to generate such
explanations. Our online study showed a significant preference for directive
explanations ($p<0.001$). However, the participants' preferred explanation type
was affected by multiple factors, such as individual preferences, social
factors, and the feasibility of the directives. Our findings highlight the need
for a human-centred and context-specific approach for creating directive
explanations.
- Abstract(参考訳): 本稿では,機械学習による意思決定のやり直しを支援するための指示的説明の利用の展望について検討する。
指示的な説明は、個人が望ましい結果を達成するために取るべき特定のアクションをリストアップする。
機械学習モデルが個人にとって有害である決定を下す場合(例)。
ローン申請を拒否する)そして、それがその決定をした理由を説明し、個人が(可能であれば)望ましい結果を得る方法を説明する必要があります。
現在、これはしばしば反実的な説明を用いて行われるが、そのような説明は一般に個人にどのように振る舞うかを教えてくれない。
目的を達成するために使用可能なアクションを明確に提供することで、反事実的説明を改善することができる、と我々は主張する。
この論文には2つの貢献がある。
まず,指示的説明に対する人々の認識に関するオンライン研究の結果について述べる。
次に,そのような説明を生成する概念モデルを提案する。
オンライン調査では、ディレクティブの説明($p<0.001$)が有意な選択であった。
しかし, 参加者の好む説明タイプは, 個人の嗜好, 社会的要因, ディレクティブの実現可能性など, 複数の要因に影響された。
本研究は,指示的説明を作成するための人間中心的かつ文脈特異的なアプローチの必要性を浮き彫りにする。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Causal Explanations and XAI [8.909115457491522]
説明可能な人工知能(XAI)の重要な目標は、説明を提供することでミスマッチを補うことである。
十分な説明と事実的説明の因果的概念を正式に定義し、さらに一歩踏み出します。
また、この研究のAIにおける公正性に対する重要性についても触れ、パス固有の反現実的公正性の概念を改善するために、実際の因果関係をどのように利用できるかを示しています。
論文 参考訳(メタデータ) (2022-01-31T12:32:10Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Are Training Resources Insufficient? Predict First Then Explain! [54.184609286094044]
我々は、予測理論(PtE)アーキテクチャはモデリングの観点からより効率的なアプローチであると主張している。
PtE構造は説明データが欠如している場合に最もデータ効率のよい手法であることを示す。
論文 参考訳(メタデータ) (2021-08-29T07:04:50Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Sequential Explanations with Mental Model-Based Policies [20.64968620536829]
本研究では,説明者の精神モデルに基づく説明を提供するための強化学習フレームワークを適用した。
我々は、説明が選ばれ、参加者に提示される新しいオンライン人間実験を行う。
以上の結果から,精神モデルに基づく政策は,複数のシーケンシャルな説明よりも解釈可能性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-17T14:43:46Z) - Order Matters: Generating Progressive Explanations for Planning Tasks in
Human-Robot Teaming [11.35869940310993]
本稿では,説明文を複数の部分に分割して順次通信する場合に,説明文生成時の影響を調査することを目的とする。
我々はまず,スキャベンジャーハントドメインに対するアプローチを評価し,人間の嗜好を効果的に捉えることを実証した。
その結果,説明の理解過程は動的過程であるという仮説が得られた。
論文 参考訳(メタデータ) (2020-04-16T00:17:02Z) - Algorithmic Recourse: from Counterfactual Explanations to Interventions [16.9979815165902]
反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2020-02-14T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。