論文の概要: Semantic Reasoning from Model-Agnostic Explanations
- arxiv url: http://arxiv.org/abs/2106.15433v1
- Date: Tue, 29 Jun 2021 14:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 21:31:27.610468
- Title: Semantic Reasoning from Model-Agnostic Explanations
- Title(参考訳): モデルによらない説明から意味論的推論
- Authors: Timen Stepi\v{s}nik Perdih, Nada Lavra\v{c}, Bla\v{z} \v{S}krlj
- Abstract要約: 本稿では、任意のインスタンスレベルの説明者が生成した説明に適用可能なReEx(Reasoning with Explanations)を提案する。
意味的説明の形で背景知識を使用することで、ReExは少なくとも一般化のような方法で一般化する。
本稿では,9つの生物学的データセット上でのReExの性能について紹介し,よりコンパクトで意味論的説明が得られ,汎用的なマッピングよりも有益であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: With the wide adoption of black-box models, instance-based \emph{post hoc}
explanation tools, such as LIME and SHAP became increasingly popular. These
tools produce explanations, pinpointing contributions of key features
associated with a given prediction. However, the obtained explanations remain
at the raw feature level and are not necessarily understandable by a human
expert without extensive domain knowledge. We propose ReEx (Reasoning with
Explanations), a method applicable to explanations generated by arbitrary
instance-level explainers, such as SHAP. By using background knowledge in the
form of ontologies, ReEx generalizes instance explanations in a least general
generalization-like manner. The resulting symbolic descriptions are specific
for individual classes and offer generalizations based on the explainer's
output. The derived semantic explanations are potentially more informative, as
they describe the key attributes in the context of more general background
knowledge, e.g., at the biological process level. We showcase ReEx's
performance on nine biological data sets, showing that compact, semantic
explanations can be obtained and are more informative than generic ontology
mappings that link terms directly to feature names. ReEx is offered as a
simple-to-use Python library and is compatible with tools such as SHAP and
similar. To our knowledge, this is one of the first methods that directly
couples semantic reasoning with contemporary model explanation methods. This
paper is a preprint. Full version's doi is: 10.1109/SAMI50585.2021.9378668
- Abstract(参考訳): ブラックボックスモデルが広く採用されると、limeやshapといったインスタンスベースの\emph{post hoc}説明ツールが普及した。
これらのツールは、与えられた予測に関連する重要な特徴の貢献を指摘し、説明を生成する。
しかし、得られた説明は生の特徴レベルに留まり、広範なドメイン知識を持たない人間の専門家によっては必ずしも理解できない。
ReEx(Reasoning with Explanations, Reasoning with Explanations)は、SHAPのような任意のインスタンスレベルの説明者によって生成される説明に適用できる手法である。
背景知識をオントロジーの形で使用することにより、インスタンス説明を最小の一般化のような方法で一般化する。
得られた記号的記述は個々のクラスに特有であり、説明者の出力に基づいて一般化を提供する。
派生したセマンティックな説明は、生物学的プロセスのレベルで、より一般的な背景知識の文脈における重要な属性を記述するため、潜在的に有益である。
本稿では,9つの生物学的データセット上でReExの性能を示すとともに,用語を特徴名に直接リンクする一般的なオントロジーマッピングよりも,コンパクトで意味的な説明が得られることを示す。
ReExはシンプルなPythonライブラリとして提供され、SHAPなどのツールと互換性がある。
我々の知る限り、これは意味論的推論と現代のモデル説明法を直接結合する最初の方法の1つである。
この紙はプレプリントです。
フル版 doi is 10.1109/sami50585.2021.9378668
関連論文リスト
- Exploring the Effect of Explanation Content and Format on User Comprehension and Trust [11.433655064494896]
がんリスクを評価するための回帰ツールの説明に焦点をあてる。
本稿では,説明内容と形式がユーザ中心の理解と信頼の指標に与える影響について検討する。
論文 参考訳(メタデータ) (2024-08-30T16:36:53Z) - ir_explain: a Python Library of Explainable IR Methods [2.6746131626710725]
irexplainは、共通のフレームワーク内でExplainable IR(ExIR)の様々なテクニックを実装するPythonライブラリである。
irexplainは、ポストホックな説明の標準的な3つのカテゴリ、すなわちポイントワイド、ペアワイド、リストワイドの説明をサポートします。
このライブラリは、標準的なテストコレクションで最先端のExIRベースラインを簡単に再現できるように設計されている。
論文 参考訳(メタデータ) (2024-04-29T09:37:24Z) - A Semantic Space is Worth 256 Language Descriptions: Make Stronger Segmentation Models with Descriptive Properties [53.177550970052174]
ProLabは、プロパティレベルのラベル空間を使用して、強力な解釈可能なセグメンテーションモデルを作成する新しいアプローチである。
セグメンテーションモデルを監督するために、常識知識に根ざした記述的特性を使用する。
論文 参考訳(メタデータ) (2023-12-21T11:43:41Z) - What Are You Token About? Dense Retrieval as Distributions Over the
Vocabulary [68.77983831618685]
本稿では,2つのエンコーダが生成するベクトル表現を,モデルの語彙空間に投影することで解釈する。
得られたプロジェクションは、リッチな意味情報を含み、それらの間の接続を描画し、スパース検索を行う。
論文 参考訳(メタデータ) (2022-12-20T16:03:25Z) - Towards Human-Compatible XAI: Explaining Data Differentials with Concept
Induction over Background Knowledge [2.803567242358594]
説明可能なAI(XAI)の文脈でデータ差分を説明するために,概念帰納法が利用できることを示す。
提案手法は,ウィキペディアのカテゴリ階層を背景知識としてキュレートした,大規模なクラス階層を利用する。
論文 参考訳(メタデータ) (2022-09-27T21:51:27Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - CLUES: A Benchmark for Learning Classifiers using Natural Language
Explanations [12.278877764015725]
教師付き学習は伝統的に、タスクのラベル付き例を観察して帰納的学習に焦点を合わせてきた。
対照的に、人間は言語から新しい概念を学ぶ能力を持っている。
自然言語のExplainationSを用いた学習のためのベンチマークであるCLUESを紹介する。
CLUESは36の現実世界と144の合成分類タスクで構成されている。
論文 参考訳(メタデータ) (2022-04-14T17:54:46Z) - Are Training Resources Insufficient? Predict First Then Explain! [54.184609286094044]
我々は、予測理論(PtE)アーキテクチャはモデリングの観点からより効率的なアプローチであると主張している。
PtE構造は説明データが欠如している場合に最もデータ効率のよい手法であることを示す。
論文 参考訳(メタデータ) (2021-08-29T07:04:50Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。