論文の概要: How to choose an Explainability Method? Towards a Methodical
Implementation of XAI in Practice
- arxiv url: http://arxiv.org/abs/2107.04427v1
- Date: Fri, 9 Jul 2021 13:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:55:05.445314
- Title: How to choose an Explainability Method? Towards a Methodical
Implementation of XAI in Practice
- Title(参考訳): 説明可能性の方法を選ぶには?
XAIの実践的実践に向けて
- Authors: Tom Vermeire and Thibault Laugel and Xavier Renard and David Martens
and Marcin Detyniecki
- Abstract要約: 我々は,利害関係者のニーズと説明方法のギャップを埋めるための方法論の必要性を論じる。
我々は、ステークホルダーに説明責任を提供するプロセスにおいて、データサイエンティストを支援するために、この方法論を作成するための継続的な作業を示す。
- 参考スコア(独自算出の注目度): 3.974102831754831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is becoming an important requirement for organizations that
make use of automated decision-making due to regulatory initiatives and a shift
in public awareness. Various and significantly different algorithmic methods to
provide this explainability have been introduced in the field, but the existing
literature in the machine learning community has paid little attention to the
stakeholder whose needs are rather studied in the human-computer interface
community. Therefore, organizations that want or need to provide this
explainability are confronted with the selection of an appropriate method for
their use case. In this paper, we argue there is a need for a methodology to
bridge the gap between stakeholder needs and explanation methods. We present
our ongoing work on creating this methodology to help data scientists in the
process of providing explainability to stakeholders. In particular, our
contributions include documents used to characterize XAI methods and user
requirements (shown in Appendix), which our methodology builds upon.
- Abstract(参考訳): 説明責任は、規制イニシアチブと公共の意識の変化によって、自動意思決定を利用する組織にとって重要な要件になりつつある。
この説明可能性を提供するための様々なアルゴリズム的手法がこの分野で導入されているが、機械学習コミュニティの既存の文献は、人間とコンピュータのインタフェースコミュニティでより研究されている利害関係者にはほとんど注意を払っていない。
したがって、この説明可能性を望むか、提供する必要がある組織は、ユースケースに適した方法の選択に直面します。
本稿では,利害関係者のニーズと説明方法のギャップを埋めるための方法論の必要性を論じる。
我々は、ステークホルダーに説明責任を提供するプロセスにおいて、データサイエンティストを支援するために、この方法論を作成するための継続的な作業を示す。
特に、私たちのコントリビューションには、XAIメソッドとユーザ要求(Appendixで書かれた)を特徴付ける文書が含まれています。
関連論文リスト
- Explainability in AI Based Applications: A Framework for Comparing Different Techniques [2.5874041837241304]
ビジネスアプリケーションでは、理解可能性と精度のバランスをとる適切な説明可能性方法を選択することが課題である。
本稿では,異なる説明可能性手法の一致を評価するための新しい手法を提案する。
多様な説明可能性手法の合意を理解するための実践的な枠組みを提供することにより、ビジネスアプリケーションにおける解釈可能なAIシステムのより広範な統合を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-28T09:45:34Z) - Systematic Mapping Protocol -- UX Design role in software development
process [55.2480439325792]
ソフトウェア開発プロセスにおけるUXデザイナの役割を調べるための体系的なマッピングプロトコルを提案する。
本研究は,地図作成に使用する研究課題,スコープ,ソース,検索戦略,選択基準,データ抽出,分析方法を定義する。
論文 参考訳(メタデータ) (2024-02-20T16:56:46Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - A Taxonomy of Decentralized Identifier Methods for Practitioners [50.76687001060655]
SSI(Self-Sovereign Identity)の新たなアイデンティティ管理パラダイムの中核となるのは、W3C Decentralized Identifiers(DID)標準である。
本稿では, DID手法を選択する際に, 実践者が情報的意思決定を行えるようにするためのDID手法の分類法を提案する。
論文 参考訳(メタデータ) (2023-10-18T13:01:40Z) - Understanding User Preferences in Explainable Artificial Intelligence: A Survey and a Mapping Function Proposal [0.0]
本研究は、説明可能な機械学習(XML)における既存の研究の徹底的なレビューを行う。
我々の主な目的は、XMLの領域内でXAIメソッドの分類を提供することです。
本稿では,ユーザとその所望のプロパティを考慮に入れたマッピング関数を提案し,XAI手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T01:06:38Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Explainable Deep Reinforcement Learning: State of the Art and Challenges [1.005130974691351]
解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
論文 参考訳(メタデータ) (2023-01-24T11:41:25Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。