論文の概要: XAudit : A Theoretical Look at Auditing with Explanations
- arxiv url: http://arxiv.org/abs/2206.04740v3
- Date: Mon, 5 Jun 2023 15:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 05:14:53.875580
- Title: XAudit : A Theoretical Look at Auditing with Explanations
- Title(参考訳): XAudit : 説明を伴う監査に関する理論的考察
- Authors: Chhavi Yadav, Michal Moshkovitz, Kamalika Chaudhuri
- Abstract要約: この研究は、監査における説明の役割を形式化し、モデル説明が監査に役立つかどうかを調査する。
具体的には、線形分類器と決定木を検査し、特徴感度を評価するための説明に基づくアルゴリズムを提案する。
以上の結果から,非現実的説明は監査に極めて有用であることが示唆された。
- 参考スコア(独自算出の注目度): 29.55309950026882
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible use of machine learning requires models to be audited for
undesirable properties. While a body of work has proposed using explanations
for auditing, how to do so and why has remained relatively ill-understood. This
work formalizes the role of explanations in auditing and investigates if and
how model explanations can help audits. Specifically, we propose
explanation-based algorithms for auditing linear classifiers and decision trees
for feature sensitivity. Our results illustrate that Counterfactual
explanations are extremely helpful for auditing. While Anchors and decision
paths may not be as beneficial in the worst-case, in the average-case they do
aid a lot.
- Abstract(参考訳): 機械学習の責任ある利用には、望ましくないプロパティの監査が必要である。
監査のために説明を用いた研究が提案されているが、その方法と理由が比較的誤解されている。
この研究は、監査における説明の役割を形式化し、モデル説明が監査に役立つかどうかを調査する。
具体的には,線形分類器と決定木を特徴の感度のために監査するための説明に基づくアルゴリズムを提案する。
以上の結果から,反事実説明は監査に極めて有用であることが示された。
アンカーと意思決定パスは最悪のケースではそれほど役に立たないかもしれないが、平均的なケースでは大きな助けになる。
関連論文リスト
- Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - Demystifying Reinforcement Learning in Production Scheduling via Explainable AI [0.7515066610159392]
深層強化学習(Dep Reinforcement Learning, DRL)はスケジューリング問題の解法としてよく用いられる手法である。
DRLエージェントは、短い計算時間で実行可能な結果を提供するのが得意だが、その推論はいまだに不透明である。
フロー生産における特殊DRLエージェントのスケジューリング決定の背後にある理由を説明するために,2つの説明可能なAI(xAI)フレームワークを適用した。
論文 参考訳(メタデータ) (2024-08-19T09:39:01Z) - Auditing Local Explanations is Hard [14.172657936593582]
本研究では,第三者監査官やユーザ集団が健全性検査を行う監査フレームワークについて検討する。
監査人がこのフレームワーク内で成功するために必要なクエリの量について、上位と下位のバウンダリを証明します。
以上の結果から,複雑な高次元設定では,ポイントワイドな予測と説明が不十分である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-18T08:34:05Z) - Towards a Framework for Evaluating Explanations in Automated Fact Verification [12.904145308839997]
NLPの深いニューラルモデルがより複雑になるにつれて、それらを解釈する必要性はさらに高くなる。
急激な関心は、予測の簡潔で一貫性のある正当化を提供するための合理的な説明に現れている。
我々は,それらの評価を体系的に支援するための説明の合理化について,重要な概念と特性に関する公式な枠組みを提唱する。
論文 参考訳(メタデータ) (2024-03-29T17:50:28Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - RESHAPE: Explaining Accounting Anomalies in Financial Statement Audits
by enhancing SHapley Additive exPlanations [1.3333957453318743]
本稿では,集約属性レベルのモデル出力を説明するRESHAPEを提案する。
以上の結果から,RESHAPEは最先端のベースラインと比較して多目的に説明できるという実証的証拠が得られた。
金融監査における非教師なしDL技術導入の次のステップとして,このような属性レベルの説明を想定する。
論文 参考訳(メタデータ) (2022-09-19T16:23:43Z) - The Unreliability of Explanations in Few-Shot In-Context Learning [50.77996380021221]
我々は、テキスト上の推論、すなわち質問応答と自然言語推論を含む2つのNLPタスクに焦点を当てる。
入力と論理的に整合した説明は、通常より正確な予測を示す。
本稿では,説明の信頼性に基づいてモデル予測を校正する枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-06T17:57:58Z) - Human Evaluation of Spoken vs. Visual Explanations for Open-Domain QA [22.76153284711981]
本研究は,ODQAシステムの回答をいつ受理するか,拒否するかをユーザが正確に判断するのに役立つかを検討する。
その結果,得られたエビデンスパスから得られた説明は,モダリティ間で強いベースライン(校正信頼度)を上回る可能性が示唆された。
我々は,現在の説明に共通する障害事例を示し,説明のエンドツーエンド評価を強調し,デプロイと異なるプロキシモダリティで評価することを警告する。
論文 参考訳(メタデータ) (2020-12-30T08:19:02Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。