論文の概要: Counterfactual Explanations for Machine Learning: A Review
- arxiv url: http://arxiv.org/abs/2010.10596v1
- Date: Tue, 20 Oct 2020 20:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 05:44:54.666933
- Title: Counterfactual Explanations for Machine Learning: A Review
- Title(参考訳): 機械学習のための反事実的説明:レビュー
- Authors: Sahil Verma and John Dickerson and Keegan Hines
- Abstract要約: 機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
- 参考スコア(独自算出の注目度): 5.908471365011942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning plays a role in many deployed decision systems, often in
ways that are difficult or impossible to understand by human stakeholders.
Explaining, in a human-understandable way, the relationship between the input
and output of machine learning models is essential to the development of
trustworthy machine-learning-based systems. A burgeoning body of research seeks
to define the goals and methods of explainability in machine learning. In this
paper, we seek to review and categorize research on counterfactual
explanations, a specific class of explanation that provides a link between what
could have happened had input to a model been changed in a particular way.
Modern approaches to counterfactual explainability in machine learning draw
connections to the established legal doctrine in many countries, making them
appealing to fielded systems in high-impact areas such as finance and
healthcare. Thus, we design a rubric with desirable properties of
counterfactual explanation algorithms and comprehensively evaluate all
currently-proposed algorithms against that rubric. Our rubric provides easy
comparison and comprehension of the advantages and disadvantages of different
approaches and serves as an introduction to major research themes in this
field. We also identify gaps and discuss promising research directions in the
space of counterfactual explainability.
- Abstract(参考訳): 機械学習は、多くのデプロイされた意思決定システムにおいて、しばしば人間の利害関係者が理解することが困難または不可能な方法で役割を果たす。
人間の理解可能な方法で説明すると、機械学習モデルの入力と出力の関係は、信頼できる機械学習ベースのシステムの開発に不可欠である。
急成長する研究機関は、機械学習における説明可能性の目標と方法を定義しようとしている。
本稿では、モデルへの入力が特定の方法で変更された場合、何が起こったかのリンクを提供する、特定の種類の説明である反事実説明の研究をレビューし、分類することを目指す。
機械学習における非事実的説明可能性に対する現代のアプローチは、多くの国で確立された法律ドクトリンとつながりを持ち、金融や医療といった大きな影響のある分野の分野に訴求する。
そこで我々は,反実的説明アルゴリズムの望ましい特性を持つルーリックを設計し,そのルーリックに対して現在提案されている全てのアルゴリズムを包括的に評価する。
我々のルーリックは、異なるアプローチの利点とデメリットの簡単な比較と理解を提供し、この分野における主要な研究テーマの紹介となる。
また、ギャップを識別し、対実的説明可能性の空間における有望な研究方向性について議論する。
関連論文リスト
- Beyond Model Interpretability: Socio-Structural Explanations in Machine Learning [5.159407277301709]
我々は、機械学習のアウトプットを規範的に健全な領域で解釈するには、第3のタイプの説明に訴える必要があると論じている。
この説明型の関連性は、機械学習モデルが独立した実体ではなく、社会構造に埋め込まれて形成されているという事実によって動機付けられている。
論文 参考訳(メタデータ) (2024-09-05T15:47:04Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Machine Unlearning: A Survey [56.79152190680552]
プライバシ、ユーザビリティ、および/または忘れられる権利のために、特定のサンプルに関する情報をマシンアンラーニングと呼ばれるモデルから削除する必要がある特別なニーズが生まれている。
この新興技術は、その革新と実用性により、学者と産業の両方から大きな関心を集めている。
この複雑なトピックを分析したり、さまざまなシナリオで既存の未学習ソリューションの実現可能性を比較したりした研究はない。
この調査は、未学習のテクニックに関する卓越した問題と、新しい研究機会のための実現可能な方向性を強調して締めくくった。
論文 参考訳(メタデータ) (2023-06-06T10:18:36Z) - Explainability in Machine Learning: a Pedagogical Perspective [9.393988089692947]
我々は、学習過程を構造化して、学生や研究者に機械学習の知識をより多く与える方法について、教育学的視点を提供する。
各種不透明かつ透明な機械学習モデルの利点と欠点について論じる。
我々はまた、学生がどんな機械学習アプリケーションと並行して説明可能性を使うことを学ぶのを助けるために、潜在的な課題を構築する方法についても論じる。
論文 参考訳(メタデータ) (2022-02-21T16:15:57Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Explainable Machine Learning with Prior Knowledge: An Overview [1.1045760002858451]
機械学習モデルの複雑さは、より説明しやすいように研究を誘致している。
機械学習モデルの説明能力を改善するために,事前知識を活用することを提案する。
論文 参考訳(メタデータ) (2021-05-21T07:33:22Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Machine Learning Explainability for External Stakeholders [27.677158604772238]
ブラックボックスを開き、機械学習アルゴリズムをより説明しやすいものにする声が増えている。
我々は,学者,産業専門家,法律学者,政策立案者らとともに,説明可能性に関する共通言語を開発するために1日間のワークショップを開催した。
本稿では、説明可能な機械学習の様々なケーススタディの概要、これらの研究からの教訓、オープンチャレンジについて議論する。
論文 参考訳(メタデータ) (2020-07-10T14:27:06Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。