論文の概要: Towards Analogy-Based Explanations in Machine Learning
- arxiv url: http://arxiv.org/abs/2005.12800v1
- Date: Sat, 23 May 2020 06:41:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 03:18:43.727094
- Title: Towards Analogy-Based Explanations in Machine Learning
- Title(参考訳): 機械学習におけるアナロジーに基づく説明
- Authors: Eyke H\"ullermeier
- Abstract要約: 類推的推論は解釈可能性や説明可能性の観点からはそれほど面白くないと我々は主張する。
アナログベースのアプローチは、説明可能なAIと解釈可能な機械学習という領域における既存のアプローチの代替として実現可能なものだ。
- 参考スコア(独自算出の注目度): 3.1410342959104725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Principles of analogical reasoning have recently been applied in the context
of machine learning, for example to develop new methods for classification and
preference learning. In this paper, we argue that, while analogical reasoning
is certainly useful for constructing new learning algorithms with high
predictive accuracy, is is arguably not less interesting from an
interpretability and explainability point of view. More specifically, we take
the view that an analogy-based approach is a viable alternative to existing
approaches in the realm of explainable AI and interpretable machine learning,
and that analogy-based explanations of the predictions produced by a machine
learning algorithm can complement similarity-based explanations in a meaningful
way. To corroborate these claims, we outline the basic idea of an analogy-based
explanation and illustrate its potential usefulness by means of some examples.
- Abstract(参考訳): 類似推論の原理は、例えば分類と選好学習の新しい方法を開発するために、機械学習の文脈で最近適用されている。
本稿では,予測精度の高い新しい学習アルゴリズムを構築する上で,類推的推論は確かに有用であるが,解釈可能性や説明可能性の観点からはそれほど興味深いものではないと論じる。
より具体的には、アナロジーに基づくアプローチは、説明可能なAIと解釈可能な機械学習という領域における既存のアプローチの代替手段であり、アナロジーに基づく機械学習アルゴリズムによる予測の説明は、類似性に基づく説明を有意義な方法で補うことができる、という見解を取る。
これらの主張を裏付けるために、アナロジーに基づく説明の基本的な考え方を概説し、いくつかの例を用いてその有用性を説明する。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Analogies and Feature Attributions for Model Agnostic Explanation of
Similarity Learners [29.63747822793279]
ブラックボックスの類似性学習者によって決定される入力のペア間の類似性を説明するための特徴属性を提供する手法を提案する。
ここでのゴールは、入力対と同じレベルの類似性を共有する様々な類似の例のペアを特定することである。
我々の類似目的関数は部分モジュラーであることを証明し、良質な類似関係の探索を効率化する。
論文 参考訳(メタデータ) (2022-02-02T17:28:56Z) - Probably Approximately Correct Explanations of Machine Learning Models
via Syntax-Guided Synthesis [6.624726878647541]
本稿では、おそらくほぼ正解学習(PAC)と構文誘導合成(SyGuS)という論理推論手法を組み合わせて、複雑な機械学習モデル(ディープニューラルネットワークなど)の意思決定を理解するための新しいアプローチを提案する。
提案手法は,高い確率で誤りが少ないことを証明し,人間の解釈可能な小さな説明を生成するのに有効であることを実証的に示す。
論文 参考訳(メタデータ) (2020-09-18T12:10:49Z) - Learning explanations that are hard to vary [75.30552491694066]
例を越えた平均化は、異なる戦略を縫合する記憶とパッチワークのソリューションに有利であることを示す。
そこで我々は論理ANDに基づく単純な代替アルゴリズムを提案し,実験的に検証する。
論文 参考訳(メタデータ) (2020-09-01T10:17:48Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z) - Ontology-based Interpretable Machine Learning for Textual Data [35.01650633374998]
本稿では,予測モデルを説明するためのサンプリング手法に基づいて,解釈可能なモデルを学習する新しい解釈フレームワークを提案する。
説明のために探索空間を狭めるために,学習可能なアンカーアルゴリズムを設計する。
さらに、学習された解釈可能な表現とアンカーを組み合わせることで、理解可能な説明を生成する一連の規則が導入された。
論文 参考訳(メタデータ) (2020-04-01T02:51:57Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。