論文の概要: A Formal Approach to Explainability
- arxiv url: http://arxiv.org/abs/2001.05207v1
- Date: Wed, 15 Jan 2020 10:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 05:48:31.066122
- Title: A Formal Approach to Explainability
- Title(参考訳): 説明可能性への形式的アプローチ
- Authors: Lior Wolf, Tomer Galanti, Tamir Hazan
- Abstract要約: 本研究では,説明生成関数と学習モデルの中間表現との関係について検討する。
我々は、新しい説明を構築する方法として、説明の交わりと結合について研究する。
- 参考スコア(独自算出の注目度): 100.12889473240237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We regard explanations as a blending of the input sample and the model's
output and offer a few definitions that capture various desired properties of
the function that generates these explanations. We study the links between
these properties and between explanation-generating functions and intermediate
representations of learned models and are able to show, for example, that if
the activations of a given layer are consistent with an explanation, then so do
all other subsequent layers. In addition, we study the intersection and union
of explanations as a way to construct new explanations.
- Abstract(参考訳): 我々は、説明を入力サンプルとモデルの出力のブレンドとみなし、これらの説明を生成する関数の様々な望ましい特性をキャプチャするいくつかの定義を提供する。
これらの特性と説明生成関数と学習モデルの中間表現との関係について検討し、例えば、与えられた層の活性化が説明と一致している場合、他の全ての層も同様であることを示すことができる。
さらに,説明の交わりと結合を,新たな説明の構築方法として検討する。
関連論文リスト
- Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Topological Representations of Local Explanations [8.559625821116454]
局所的な説明の集合から単純化された表現を抽出するトポロジに基づくフレームワークを提案する。
我々のフレームワークは、説明可能性技術の違いを確実に識別できるだけでなく、安定した表現も提供できることを実証する。
論文 参考訳(メタデータ) (2022-01-06T17:46:45Z) - Diagnostics-Guided Explanation Generation [32.97930902104502]
説明は機械学習モデルの合理性に光を当て、推論プロセスにおける欠陥の特定に役立ちます。
文レベルの説明を生成するためにモデルを訓練する際、いくつかの診断特性を最適化する方法を示す。
論文 参考訳(メタデータ) (2021-09-08T16:27:52Z) - On the overlooked issue of defining explanation objectives for
local-surrogate explainers [5.094061357656677]
機械学習モデル予測を説明するローカルサロゲートアプローチには、魅力的な性質がある。
この記述に適合し、この目標を共有するいくつかの方法が存在する。
本研究の目的は, 合意の欠如, 明確さの欠如が, 説明可能性の研究・実践に与える影響について考察することである。
論文 参考訳(メタデータ) (2021-06-10T15:24:49Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Sequential Explanations with Mental Model-Based Policies [20.64968620536829]
本研究では,説明者の精神モデルに基づく説明を提供するための強化学習フレームワークを適用した。
我々は、説明が選ばれ、参加者に提示される新しいオンライン人間実験を行う。
以上の結果から,精神モデルに基づく政策は,複数のシーケンシャルな説明よりも解釈可能性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2020-07-17T14:43:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。