論文の概要: Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI
- arxiv url: http://arxiv.org/abs/2301.11970v2
- Date: Mon, 8 May 2023 18:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 16:08:20.625558
- Title: Even if Explanations: Prior Work, Desiderata & Benchmarks for
Semi-Factual XAI
- Title(参考訳): 仮に説明であっても,セミファクチュアルXAIの事前作業, Desiderata & Benchmarks
- Authors: Saugat Aryal and Mark T Keane
- Abstract要約: 反事実的、半事実的なサブタイプは、AIではあまり注目されていない。
本稿では,この地域の歴史的・最近のブレークスルーを要約する文献を調査する。
半実のXAIのための重要なデシラタを定義し、過去のアルゴリズムのベンチマークテストを報告している。
- 参考スコア(独自算出の注目度): 7.881140597011731
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, eXplainable AI (XAI) research has focused on counterfactual
explanations as post-hoc justifications for AI-system decisions (e.g. a
customer refused a loan might be told: If you asked for a loan with a shorter
term, it would have been approved). Counterfactuals explain what changes to the
input-features of an AI system change the output-decision. However, there is a
sub-type of counterfactual, semi-factuals, that have received less attention in
AI (though the Cognitive Sciences have studied them extensively). This paper
surveys these literatures to summarise historical and recent breakthroughs in
this area. It defines key desiderata for semi-factual XAI and reports benchmark
tests of historical algorithms (along with a novel, naieve method) to provide a
solid basis for future algorithmic developments.
- Abstract(参考訳): 最近、eXplainable AI (XAI)研究は、AIシステム決定に対するポストホックな正当化として、反ファクト的な説明に焦点を当てている(例えば、顧客がローンを拒否した場合、短い期間でローンを請求した場合、承認された)。
カウンターファクトリーは、AIシステムの入力機能の変更が出力決定をどう変えるかを説明する。
しかし、AIにはあまり注目されていない反事実的半事実のサブタイプが存在する(認知科学はそれらを広く研究している)。
本稿は、これらの文献を調査し、この地域の歴史的・最近のブレークスルーを要約する。
半実のXAIのためのキーデシダータを定義し、将来的なアルゴリズム開発のための確固たる基盤を提供するために、(新奇な方法とともに)履歴アルゴリズムのベンチマークテストを行う。
関連論文リスト
- Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - NoMatterXAI: Generating "No Matter What" Alterfactual Examples for Explaining Black-Box Text Classification Models [13.46175798016079]
対物的説明(CE)は重要な機能にのみ焦点をあて、無関係なものを無視します。
人工的な説明(AE)は「何があっても」という代替の現実を探求する
本稿では,テキスト分類タスクのためのAEを生成する新しいアルゴリズムであるMoMatterXAIを紹介する。
論文 参考訳(メタデータ) (2024-08-20T04:06:21Z) - Explainable Artificial Intelligence and Multicollinearity : A Mini Review of Current Approaches [0.0]
説明可能な人工知能(XAI)手法は、機械学習モデルの内部メカニズムを理解するのに役立つ。
情報的特徴のリストは、XAIメソッドの最も一般的な出力の1つである。
マルチコリニアリティは、XAIが説明を生成するときに考慮すべき大きな問題の1つです。
論文 参考訳(メタデータ) (2024-06-17T13:26:53Z) - Logic-Based Explainability: Past, Present & Future [0.8547032097715571]
機械学習(ML)と人工知能(AI)の採用も重大な懸念点である。
最も先進的なAI/MLモデルの運用は、人間の意思決定者の把握を超えたものが多い。
本稿では,論理に基づくXAIとその起源,研究の現在の話題,今後の研究の話題について,技術的な調査を行う。
論文 参考訳(メタデータ) (2024-06-04T10:41:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - LioNets: A Neural-Specific Local Interpretation Technique Exploiting
Penultimate Layer Information [6.570220157893279]
解釈可能な機械学習(IML)は研究の緊急のトピックである。
本稿では,テキストデータと時系列データに適用される局所的,神経特異的な解釈プロセスに焦点を当てる。
論文 参考訳(メタデータ) (2021-04-13T09:39:33Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Evaluation Toolkit For Robustness Testing Of Automatic Essay Scoring
Systems [64.4896118325552]
モデル逆算評価スキームと関連するメトリクスを用いて、現状のAESモデルを評価する。
AESモデルは非常に過大評価されていることがわかった。質問の話題に関係のない内容の重い修正(25%まで)でさえ、モデルが生み出すスコアを低下させることはない。
論文 参考訳(メタデータ) (2020-07-14T03:49:43Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。