論文の概要: How to choose an Explainability Method? Towards a Methodical
Implementation of XAI in Practice
- arxiv url: http://arxiv.org/abs/2107.04427v1
- Date: Fri, 9 Jul 2021 13:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:55:05.445314
- Title: How to choose an Explainability Method? Towards a Methodical
Implementation of XAI in Practice
- Title(参考訳): 説明可能性の方法を選ぶには?
XAIの実践的実践に向けて
- Authors: Tom Vermeire and Thibault Laugel and Xavier Renard and David Martens
and Marcin Detyniecki
- Abstract要約: 我々は,利害関係者のニーズと説明方法のギャップを埋めるための方法論の必要性を論じる。
我々は、ステークホルダーに説明責任を提供するプロセスにおいて、データサイエンティストを支援するために、この方法論を作成するための継続的な作業を示す。
- 参考スコア(独自算出の注目度): 3.974102831754831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is becoming an important requirement for organizations that
make use of automated decision-making due to regulatory initiatives and a shift
in public awareness. Various and significantly different algorithmic methods to
provide this explainability have been introduced in the field, but the existing
literature in the machine learning community has paid little attention to the
stakeholder whose needs are rather studied in the human-computer interface
community. Therefore, organizations that want or need to provide this
explainability are confronted with the selection of an appropriate method for
their use case. In this paper, we argue there is a need for a methodology to
bridge the gap between stakeholder needs and explanation methods. We present
our ongoing work on creating this methodology to help data scientists in the
process of providing explainability to stakeholders. In particular, our
contributions include documents used to characterize XAI methods and user
requirements (shown in Appendix), which our methodology builds upon.
- Abstract(参考訳): 説明責任は、規制イニシアチブと公共の意識の変化によって、自動意思決定を利用する組織にとって重要な要件になりつつある。
この説明可能性を提供するための様々なアルゴリズム的手法がこの分野で導入されているが、機械学習コミュニティの既存の文献は、人間とコンピュータのインタフェースコミュニティでより研究されている利害関係者にはほとんど注意を払っていない。
したがって、この説明可能性を望むか、提供する必要がある組織は、ユースケースに適した方法の選択に直面します。
本稿では,利害関係者のニーズと説明方法のギャップを埋めるための方法論の必要性を論じる。
我々は、ステークホルダーに説明責任を提供するプロセスにおいて、データサイエンティストを支援するために、この方法論を作成するための継続的な作業を示す。
特に、私たちのコントリビューションには、XAIメソッドとユーザ要求(Appendixで書かれた)を特徴付ける文書が含まれています。
関連論文リスト
- Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Explainable Deep Reinforcement Learning: State of the Art and Challenges [1.005130974691351]
解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
論文 参考訳(メタデータ) (2023-01-24T11:41:25Z) - Learning Classifier Systems for Self-Explaining Socio-Technical-Systems [0.0]
社会技術的設定では、オペレーターは意思決定支援システムによってますます助けられている。
オペレーターに受け入れられ、効率的に関与するには、特定の意思決定の背後にある理由について、意思決定支援システムが説明できる必要がある。
本稿では,アプリケーション固有の説明可能性の必要性を評価するための7つの質問のテンプレートを提案する。
論文 参考訳(メタデータ) (2022-07-01T08:13:34Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Altruist: Argumentative Explanations through Local Interpretations of
Predictive Models [10.342433824178825]
既存の説明技法はエンドユーザには理解できないことが多い。
本稿では,特徴重視の解釈の真相を識別する予備的メタ説明手法を提案する。
実験は、複数の解釈技法のアンサンブルが、より真理的な説明をもたらすことを強く示唆している。
論文 参考訳(メタデータ) (2020-10-15T10:36:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。