論文の概要: A Series of Unfortunate Counterfactual Events: the Role of Time in
Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2010.04687v2
- Date: Mon, 18 Jan 2021 19:52:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:40:58.109429
- Title: A Series of Unfortunate Counterfactual Events: the Role of Time in
Counterfactual Explanations
- Title(参考訳): 一連の不幸な反事実的出来事:反事実的説明における時間の役割
- Authors: Andrea Ferrario, Michele Loi
- Abstract要約: 文献は, 事実的説明に係わる時間的依存の問題を無視していることを示す。
時間的依存とレコメンデーションの提供のため、現実のアプリケーションでは、実現可能で、行動可能で、スパースなカウンターファクトな説明が適さないかもしれない、と我々は主張する。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Counterfactual explanations are a prominent example of post-hoc
interpretability methods in the explainable Artificial Intelligence research
domain. They provide individuals with alternative scenarios and a set of
recommendations to achieve a sought-after machine learning model outcome.
Recently, the literature has identified desiderata of counterfactual
explanations, such as feasibility, actionability and sparsity that should
support their applicability in real-world contexts. However, we show that the
literature has neglected the problem of the time dependency of counterfactual
explanations. We argue that, due to their time dependency and because of the
provision of recommendations, even feasible, actionable and sparse
counterfactual explanations may not be appropriate in real-world applications.
This is due to the possible emergence of what we call "unfortunate
counterfactual events." These events may occur due to the retraining of machine
learning models whose outcomes have to be explained via counterfactual
explanation. Series of unfortunate counterfactual events frustrate the efforts
of those individuals who successfully implemented the recommendations of
counterfactual explanations. This negatively affects people's trust in the
ability of institutions to provide machine learning-supported decisions
consistently. We introduce an approach to address the problem of the emergence
of unfortunate counterfactual events that makes use of histories of
counterfactual explanations. In the final part of the paper we propose an
ethical analysis of two distinct strategies to cope with the challenge of
unfortunate counterfactual events. We show that they respond to an ethically
responsible imperative to preserve the trustworthiness of credit lending
organizations, the decision models they employ, and the social-economic
function of credit lending.
- Abstract(参考訳): 反事実的説明は、説明可能な人工知能研究領域におけるポストホック解釈可能性手法の顕著な例である。
彼らは個人に代替シナリオと一連のレコメンデーションを提供し、機械学習モデルの結果を追求する。
近年,本論文は,現実の文脈における適用性を支えるための実現可能性や行動可能性,スパーシティといった反事実的説明のデシデラタを特定している。
しかし,本論文は,反実的説明の時間依存性の問題を無視していることを示す。
時間的依存とレコメンデーションの提供のため、現実のアプリケーションでは、実現可能で、行動可能で、スパースなカウンターファクトな説明が適さないかもしれない、と我々は主張する。
これは、私たちが"不幸な反ファクトイベント"と呼ぶものが出現する可能性があるためです。
これらの出来事は、結果を説明する必要がある機械学習モデルの再訓練によって起こりうる。
一連の不幸な反事実的出来事は、反事実的説明の推奨を実行に移した人々の努力をいらいらさせる。
これは、学習支援決定を一貫して提供できる機関の能力に対する人々の信頼に悪影響を及ぼす。
本稿では,反事実的説明の履歴を利用した不運な反事実的事象の発生問題に対処するためのアプローチを提案する。
本論文の最終部では,不運な対実事件に対処する2つの異なる戦略の倫理的分析を提案する。
信用貸付組織の信頼度、採用する意思決定モデル、信用貸付の社会的経済的機能を維持するための倫理的責任を負う命令に反応することを示す。
関連論文リスト
- Counterfactual and Semifactual Explanations in Abstract Argumentation: Formal Foundations, Complexity and Computation [19.799266797193344]
議論ベースのシステムは、意思決定プロセスをサポートしながら説明責任を欠くことが多い。
対実的・半実的な説明は解釈可能性のテクニックである。
本稿では,制約の弱いArgumentation Frameworkにおいて,逆ファクトおよび半ファクトのクエリを符号化可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T07:27:27Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - Counterfactual Explanations Can Be Manipulated [40.78019510022835]
反事実的説明の脆弱性を記述した最初のフレームワークを紹介し,その操作方法を示す。
反事実的説明は、それらが堅牢でないことを示す小さな摂動の下で、大きく異なる反事実に収束する可能性がある。
これらのモデルが、監査者に対して公正に見せながら、データ内の特定のサブグループに対して、不公平に低コストなリコースを提供する方法について説明する。
論文 参考訳(メタデータ) (2021-06-04T18:56:15Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Counterfactual Credit Assignment in Model-Free Reinforcement Learning [47.79277857377155]
強化学習における信用割当は、将来の報酬に対する行動の影響を測定する問題である。
我々は因果理論からモデルフリーなRL設定への反事実の概念を適応する。
我々は、将来の条件値関数をベースラインや批評家として使用するポリシーアルゴリズムのファミリーを定式化し、それらが明らかに低分散であることを示す。
論文 参考訳(メタデータ) (2020-11-18T18:41:44Z) - Learning Models for Actionable Recourse [31.30850378503406]
本研究では, リスクの高い個人に対して, 精度を犠牲にすることなく, 理論的に言論を保証するアルゴリズムを提案する。
実データに対する広範な実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-11-12T01:15:18Z) - Learning "What-if" Explanations for Sequential Decision-Making [92.8311073739295]
実世界の意思決定の解釈可能なパラメータ化を実証行動に基づいて構築することが不可欠である。
そこで我々は,「何」の結果に対する嗜好の観点から,報酬関数をモデル化し,専門家による意思決定の学習的説明を提案する。
本研究は,行動の正確かつ解釈可能な記述を回復する上で,実効的逆強化学習手法であるバッチの有効性を強調した。
論文 参考訳(メタデータ) (2020-07-02T14:24:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。