論文の概要: The Utility of "Even if..." Semifactual Explanation to Optimise Positive
Outcomes
- arxiv url: http://arxiv.org/abs/2310.18937v1
- Date: Sun, 29 Oct 2023 08:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 15:30:27.582895
- Title: The Utility of "Even if..." Semifactual Explanation to Optimise Positive
Outcomes
- Title(参考訳): Even if...」の効用
正の結果を最適化するための半事実的説明
- Authors: Eoin M. Kenny and Weipeng Huang
- Abstract要約: 我々はtextitGain の概念を導入し(つまり、ユーザーがその説明からどれだけ利益を得るか)、半実物の因果的形式化を最初に検討する。
テストは、我々のアルゴリズムが以前の作業と比べて利益を最大化するのに優れており、そのプロセスにおいて因果関係が重要であることを示している。
- 参考スコア(独自算出の注目度): 6.801754043459317
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When users receive either a positive or negative outcome from an automated
system, Explainable AI (XAI) has almost exclusively focused on how to mutate
negative outcomes into positive ones by crossing a decision boundary using
counterfactuals (e.g., \textit{"If you earn 2k more, we will accept your loan
application"}). Here, we instead focus on \textit{positive} outcomes, and take
the novel step of using XAI to optimise them (e.g., \textit{"Even if you wish
to half your down-payment, we will still accept your loan application"}).
Explanations such as these that employ "even if..." reasoning, and do not cross
a decision boundary, are known as semifactuals. To instantiate semifactuals in
this context, we introduce the concept of \textit{Gain} (i.e., how much a user
stands to benefit from the explanation), and consider the first causal
formalisation of semifactuals. Tests on benchmark datasets show our algorithms
are better at maximising gain compared to prior work, and that causality is
important in the process. Most importantly however, a user study supports our
main hypothesis by showing people find semifactual explanations more useful
than counterfactuals when they receive the positive outcome of a loan
acceptance.
- Abstract(参考訳): ユーザーが自動化されたシステムから肯定的な結果または否定的な結果を受け取る場合、説明可能なAI(XAI)は、正の成果を正の結果に変換する方法にほとんど重点を置いている(例: \textit{"2k以上の収入を得た場合、ローン申請を受理する)。
ここでは、代わりに \textit{ positive} の結果にフォーカスし、XAI を使用してそれらを最適化する新しいステップを取ります(例えば、もしあなたのダウンペイメントを半分にしたいなら、引き続きあなたのローン申請を受け入れます)。
たとえ「もしも」推論を採用し、決定境界を越えていないような説明は半実数として知られている。
この文脈で半事実をインスタンス化するために、私たちは \textit{gain} の概念(つまり、ユーザーが説明からどれだけ利益を得るか)を導入し、最初の半事実の因果形式化を考える。
ベンチマークデータセットのテストでは、我々のアルゴリズムは以前の作業よりも利益を最大化するのに優れており、プロセスにおいて因果関係が重要であることが示されています。
しかし、最も重要なことは、ユーザ調査が、ローンの受け入れのポジティブな結果を得たときに、偽物よりも有用な半事実的な説明を見つけることによって、私たちの主仮説を支持していることです。
関連論文リスト
- Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Even-Ifs From If-Onlys: Are the Best Semi-Factual Explanations Found Using Counterfactuals As Guides? [5.00685398138999]
いくつかの半実生産法は、半実生産を誘導するために反実物を用いる。
5つの主要な指標を用いて、7つのデータセットに対して8つの半実例メソッドの包括的なテストを行う。
これらのテストの結果は、決定領域の他の側面の計算は、より優れた半現実的XAIをもたらすことを示唆している。
論文 参考訳(メタデータ) (2024-03-01T21:04:48Z) - KTO: Model Alignment as Prospect Theoretic Optimization [67.44320255397506]
Kahneman & Tversky の $textitprospect theory$ は、人間が偏見はあるが明確に定義された方法でランダム変数を知覚することを示している。
人間のフィードバックとLLMを協調させる目的には,これらのバイアスが暗黙的に組み込まれていることを示す。
そこで本稿では,嗜好のログ類似度を最大化する代わりに,世代別利用率を直接最大化するHALOを提案する。
論文 参考訳(メタデータ) (2024-02-02T10:53:36Z) - Making Large Language Models Better Reasoners with Alignment [57.82176656663245]
推論(Reasoning)とは、証拠を使って結論に達する認知過程である。
近年の研究では、思考の連鎖(COT)推論プロセスによるデータ上の微調整LDMは、その推論能力を著しく向上させることができることが示されている。
テキストアライメントファインチューニング(AFT)パラダイムを3ステップで導入する。
論文 参考訳(メタデータ) (2023-09-05T11:32:48Z) - Precise Benchmarking of Explainable AI Attribution Methods [0.0]
本稿では,最新のXAI属性手法のベンチマークのための新しい評価手法を提案する。
提案手法は, 基礎的真理の説明を伴う合成分類モデルから成り立っている。
実験の結果, Guided-Backprop 法と Smoothgrad XAI 法の性能に関する新たな知見が得られた。
論文 参考訳(メタデータ) (2023-08-06T17:03:32Z) - Machine Learning for Utility Prediction in Argument-Based Computational
Persuasion [17.214664783818677]
医療などの実際のアプリケーションでは、APSとユーザにとって、対話の結果が同じ、あるいは正反対になる可能性は低い。
ユーザからの情報を活用してユーティリティを予測する2つの機械学習手法を開発した。
本研究は,健康な食生活に関するシミュレーション環境と現実的なケーススタディにおいて,EAIとEDSを評価した。
論文 参考訳(メタデータ) (2021-12-09T14:28:54Z) - Positivity Validation Detection and Explainability via Zero Fraction
Multi-Hypothesis Testing and Asymmetrically Pruned Decision Trees [7.688686113950607]
陽性は、観測データから因果推論を行う3つの条件の1つである。
非専門家による因果推論の能力を民主化するためには、肯定性をテストするアルゴリズムを設計する必要がある。
論文 参考訳(メタデータ) (2021-11-07T08:32:58Z) - Direct Advantage Estimation [63.52264764099532]
予測されるリターンは、学習を遅くする可能性のある望ましくない方法でポリシーに依存する可能性があることを示します。
本稿では,優位関数をモデル化し,データから直接推定する手法として,DAE(Direct Advantage Estimation)を提案する。
望むなら、値関数をDAEにシームレスに統合して、時間差学習と同様の方法で更新することもできる。
論文 参考訳(メタデータ) (2021-09-13T16:09:31Z) - The Curse of Passive Data Collection in Batch Reinforcement Learning [82.6026077420886]
高い利害関係のアプリケーションでは、アクティブな実験は危険すぎると考えられ、データはしばしば受動的に収集される。
バンディットやパッシブ、アクティブなデータ収集などの単純な場合も同様に効果的であるが、制御された状態のシステムからデータを集める場合、パッシブサンプリングの価格ははるかに高い。
論文 参考訳(メタデータ) (2021-06-18T07:54:23Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。