論文の概要: Explainable Machine Learning with Prior Knowledge: An Overview
- arxiv url: http://arxiv.org/abs/2105.10172v1
- Date: Fri, 21 May 2021 07:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:19:00.527933
- Title: Explainable Machine Learning with Prior Knowledge: An Overview
- Title(参考訳): 事前知識を用いた説明可能な機械学習:概要
- Authors: Katharina Beckh, Sebastian M\"uller, Matthias Jakobs, Vanessa Toborek,
Hanxiao Tan, Raphael Fischer, Pascal Welke, Sebastian Houben, Laura von
Rueden
- Abstract要約: 機械学習モデルの複雑さは、より説明しやすいように研究を誘致している。
機械学習モデルの説明能力を改善するために,事前知識を活用することを提案する。
- 参考スコア(独自算出の注目度): 1.1045760002858451
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This survey presents an overview of integrating prior knowledge into machine
learning systems in order to improve explainability. The complexity of machine
learning models has elicited research to make them more explainable. However,
most explainability methods cannot provide insight beyond the given data,
requiring additional information about the context. We propose to harness prior
knowledge to improve upon the explanation capabilities of machine learning
models. In this paper, we present a categorization of current research into
three main categories which either integrate knowledge into the machine
learning pipeline, into the explainability method or derive knowledge from
explanations. To classify the papers, we build upon the existing taxonomy of
informed machine learning and extend it from the perspective of explainability.
We conclude with open challenges and research directions.
- Abstract(参考訳): 本稿では,機械学習システムへの事前知識の統合について概説する。
機械学習モデルの複雑さは、より説明しやすいように研究を促している。
しかし、ほとんどの説明可能性法は、与えられたデータ以上の洞察を与えず、コンテキストに関する追加情報を必要とする。
機械学習モデルの説明能力を改善するために,事前知識を活用することを提案する。
本稿では、機械学習パイプラインに知識を統合する3つの主要なカテゴリに関する現在の研究の分類を、説明可能性法や説明から知識を引き出す方法に分類する。
論文を分類するために,情報機械学習の既存の分類基盤を構築し,説明可能性の観点から拡張する。
私たちはオープンチャレンジと研究の指示で締めくくります。
関連論文リスト
- Beyond Model Interpretability: Socio-Structural Explanations in Machine Learning [5.159407277301709]
我々は、機械学習のアウトプットを規範的に健全な領域で解釈するには、第3のタイプの説明に訴える必要があると論じている。
この説明型の関連性は、機械学習モデルが独立した実体ではなく、社会構造に埋め込まれて形成されているという事実によって動機付けられている。
論文 参考訳(メタデータ) (2024-09-05T15:47:04Z) - Retrieval-Enhanced Machine Learning [110.5237983180089]
本稿では,いくつかの既存モデルを含む汎用的な検索強化機械学習フレームワークについて述べる。
REMLは情報検索の慣例に挑戦し、最適化を含む中核領域における新たな進歩の機会を提示している。
REMLリサーチアジェンダは、情報アクセス研究の新しいスタイルの基礎を築き、機械学習と人工知能の進歩への道を開く。
論文 参考訳(メタデータ) (2022-05-02T21:42:45Z) - Embedding Knowledge for Document Summarization: A Survey [66.76415502727802]
従来の研究は、知識を組み込んだ文書要約器が優れた消化器を生成するのに優れていたことを証明した。
本稿では,文書要約ビューに基づいて,知識と知識の埋め込みを再カプセル化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-24T04:36:07Z) - Explainability in Machine Learning: a Pedagogical Perspective [9.393988089692947]
我々は、学習過程を構造化して、学生や研究者に機械学習の知識をより多く与える方法について、教育学的視点を提供する。
各種不透明かつ透明な機械学習モデルの利点と欠点について論じる。
我々はまた、学生がどんな機械学習アプリケーションと並行して説明可能性を使うことを学ぶのを助けるために、潜在的な課題を構築する方法についても論じる。
論文 参考訳(メタデータ) (2022-02-21T16:15:57Z) - Computing Rule-Based Explanations of Machine Learning Classifiers using
Knowledge Graphs [62.997667081978825]
我々は、機械学習分類器の動作を説明する用語を提供する基盤となるフレームワークとして知識グラフを使用している。
特に,知識グラフの用語で表される一階述語論理規則の形で,ブラックボックスの説明を抽出し,表現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T16:21:49Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Machine Learning Explainability for External Stakeholders [27.677158604772238]
ブラックボックスを開き、機械学習アルゴリズムをより説明しやすいものにする声が増えている。
我々は,学者,産業専門家,法律学者,政策立案者らとともに,説明可能性に関する共通言語を開発するために1日間のワークショップを開催した。
本稿では、説明可能な機械学習の様々なケーススタディの概要、これらの研究からの教訓、オープンチャレンジについて議論する。
論文 参考訳(メタデータ) (2020-07-10T14:27:06Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。