論文の概要: Algorithmic Recourse: from Counterfactual Explanations to Interventions
- arxiv url: http://arxiv.org/abs/2002.06278v4
- Date: Thu, 8 Oct 2020 15:15:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 03:48:37.101941
- Title: Algorithmic Recourse: from Counterfactual Explanations to Interventions
- Title(参考訳): アルゴリズムリコース:反事実的説明から介入へ
- Authors: Amir-Hossein Karimi, Bernhard Sch\"olkopf, Isabel Valera
- Abstract要約: 反事実的な説明は、どこに着く必要があるのかを個人に知らせるが、そこにたどり着くには至らない、と我々は主張する。
代わりに、最小限の介入を通して、最も近い対実的な説明から言い換えへのパラダイムシフトを提案する。
- 参考スコア(独自算出の注目度): 16.9979815165902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning is increasingly used to inform consequential
decision-making (e.g., pre-trial bail and loan approval), it becomes important
to explain how the system arrived at its decision, and also suggest actions to
achieve a favorable decision. Counterfactual explanations -- "how the world
would have (had) to be different for a desirable outcome to occur" -- aim to
satisfy these criteria. Existing works have primarily focused on designing
algorithms to obtain counterfactual explanations for a wide range of settings.
However, one of the main objectives of "explanations as a means to help a
data-subject act rather than merely understand" has been overlooked. In
layman's terms, counterfactual explanations inform an individual where they
need to get to, but not how to get there. In this work, we rely on causal
reasoning to caution against the use of counterfactual explanations as a
recommendable set of actions for recourse. Instead, we propose a shift of
paradigm from recourse via nearest counterfactual explanations to recourse
through minimal interventions, moving the focus from explanations to
recommendations. Finally, we provide the reader with an extensive discussion on
how to realistically achieve recourse beyond structural interventions.
- Abstract(参考訳): 機械学習は、一連の意思決定(例えば、裁判前の保釈やローンの承認)を知らせるためにますます使われるようになり、どのようにシステムが決定に到達したかを説明し、有利な決定を達成するための行動を提案することが重要になる。
反事実的な説明 -- "世界が(望ましい結果をもたらすために)どのように異なるものを持つべきか" - は、これらの基準を満たそうとしている。
既存の研究は主に、幅広い設定の反事実的説明を得るためにアルゴリズムを設計することに重点を置いている。
しかし、「単に理解するよりむしろ、データ・サブジェクトの行為を助ける手段としての説明」の主な目的の1つは見過ごされている。
レイマンの言葉では、反実的な説明は、どこに着く必要があるかを個人に知らせるが、そこにたどり着く方法はない。
本研究は, 因果推論に頼って, 反事実的説明をレコメンデーションのための推奨行動のセットとして用いることに注意する。
代わりに、最小限の介入を通じて、リコースから最も近い対実的な説明へとパラダイムの転換を提案し、説明からレコメンデーションへと焦点を移す。
最後に、構造的介入を超えて現実的な会話を実現する方法について、読者に広範な議論を行う。
関連論文リスト
- Counterfactual Explanations as Plans [6.445239204595516]
我々は、アクションシーケンスの観点で、対実的説明の正式な説明を提供する。
エージェントのモデルを修正したり、エージェントの計画にアクションを提案したりすることで、モデル和解の理由を自然に示します。
論文 参考訳(メタデータ) (2025-02-13T11:45:54Z) - Explanation Hacking: The perils of algorithmic recourse [2.967024581564439]
我々は、リコメンデーションの説明がいくつかの概念的な落とし穴に直面しており、問題のある説明ハッキングにつながると論じている。
代替として、AI決定の説明は理解を目的とすべきである、と我々は主張する。
論文 参考訳(メタデータ) (2024-03-22T12:49:28Z) - Clash of the Explainers: Argumentation for Context-Appropriate
Explanations [6.8285745209093145]
特定のコンテキストに最も適したアプローチはひとつもありません。
AIの説明容易性を効果的にするためには、説明とそれらがどのように提示されるかは、説明を受けるステークホルダーに向けられる必要がある。
本稿では、関係する利害関係者の精神モデルと、多説明者による議論問題を解決する理性コンポーネントと、利害関係者に適切に説明すべきAIモデルとからなるモジュラー推論システムを提案する。
論文 参考訳(メタデータ) (2023-12-12T09:52:30Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Directive Explanations for Actionable Explainability in Machine Learning
Applications [21.436319317774768]
本稿では,機械学習による意思決定の実践を支援するために,ディレクティブな説明を用いることの可能性について検討する。
本研究は、指示的説明に対する人々の認識を調査するオンライン調査の結果である。
このような説明を生成するための概念モデルを提案する。
論文 参考訳(メタデータ) (2021-02-03T01:46:55Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Explainable Object-induced Action Decision for Autonomous Vehicles [53.59781838748779]
自動運転の新しいパラダイムが提案されている。
それは人間がその問題を解決する方法にインスパイアされている。
この問題を解決するためにCNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-20T17:33:44Z) - Explaining Data-Driven Decisions made by AI Systems: The Counterfactual
Approach [11.871523410051527]
我々は、その決定を因果的に駆動するシステムのデータ入力の集合として、説明を考察する。
モデル予測において重要な重みを持つ特徴が対応する決定に影響を及ぼさない可能性があることを示す。
論文 参考訳(メタデータ) (2020-01-21T09:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。