論文の概要: Rationalization through Concepts
- arxiv url: http://arxiv.org/abs/2105.04837v1
- Date: Tue, 11 May 2021 07:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 14:07:56.718165
- Title: Rationalization through Concepts
- Title(参考訳): 概念による合理化
- Authors: Diego Antognini and Boi Faltings
- Abstract要約: ConRATという,新しい自己解釈モデルを提案する。
高レベルの決定に対する人間の説明は、しばしば鍵となる概念に基づいており、ConRATはドキュメントに記述されているものを想定している。
2つの正規化器がConRATを駆動して解釈可能な概念を構築する。
- 参考スコア(独自算出の注目度): 27.207067974031805
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated predictions require explanations to be interpretable by humans. One
type of explanation is a rationale, i.e., a selection of input features such as
relevant text snippets from which the model computes the outcome. However, a
single overall selection does not provide a complete explanation, e.g.,
weighing several aspects for decisions. To this end, we present a novel
self-interpretable model called ConRAT. Inspired by how human explanations for
high-level decisions are often based on key concepts, ConRAT extracts a set of
text snippets as concepts and infers which ones are described in the document.
Then, it explains the outcome with a linear aggregation of concepts. Two
regularizers drive ConRAT to build interpretable concepts. In addition, we
propose two techniques to boost the rationale and predictive performance
further. Experiments on both single- and multi-aspect sentiment classification
tasks show that ConRAT is the first to generate concepts that align with human
rationalization while using only the overall label. Further, it outperforms
state-of-the-art methods trained on each aspect label independently.
- Abstract(参考訳): 自動予測は人間によって解釈される説明を必要とする。
説明の1つのタイプは理性であり、すなわち、モデルが結果を計算するための関連するテキストスニペットのような入力機能の選択である。
しかし、単一の全体選択は、例えば、決定のためのいくつかの側面を重んじるなど、完全な説明を提供しない。
そこで本研究では,ConRATと呼ばれる自己解釈モデルを提案する。
高レベルの決定のための人間の説明が鍵となる概念に基づいていることにインスパイアされたConRATは、テキストスニペットのセットを概念として抽出し、ドキュメントに記述されているものを推測する。
そして、概念を線形に集約して結果を説明する。
2つの正規化器がConRATを駆動して解釈可能な概念を構築する。
さらに,理論的および予測的性能をさらに向上する2つの手法を提案する。
単視点と多視点の両方の感情分類タスクの実験は、ConRATが全体ラベルのみを使用しながら人間の合理化と整合する概念を初めて生成したことを示している。
さらに、各アスペクトラベルで独立にトレーニングされた最先端のメソッドよりも優れています。
関連論文リスト
- Explaining Explainability: Understanding Concept Activation Vectors [35.37586279472797]
最近の解釈可能性法では、概念に基づく説明を用いて、ディープラーニングモデルの内部表現を、人間が慣れ親しんだ言語に翻訳する。
これは、ニューラルネットワークの表現空間にどの概念が存在するかを理解する必要がある。
本研究では,概念活性化ベクトル(Concept Activation Vectors, CAV)の3つの特性について検討する。
本研究では,これらの特性の存在を検出するためのツールを導入し,それらが引き起こした説明にどのように影響するかを把握し,その影響を最小限に抑えるための推奨事項を提供する。
論文 参考訳(メタデータ) (2024-04-04T17:46:20Z) - Dynamic Clue Bottlenecks: Towards Interpretable-by-Design Visual Question Answering [58.64831511644917]
本稿では, モデル決定を中間的人間法的な説明に分解する設計モデルを提案する。
我々は、我々の本質的に解釈可能なシステムは、推論に焦点をあてた質問において、同等のブラックボックスシステムよりも4.64%改善できることを示した。
論文 参考訳(メタデータ) (2023-05-24T08:33:15Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Overlooked factors in concept-based explanations: Dataset choice,
concept learnability, and human capability [25.545486537295144]
概念に基づく解釈可能性法は、事前に定義されたセマンティック概念のセットを使用して、ディープニューラルネットワークモデル予測を説明することを目的としている。
その人気にもかかわらず、文学によって十分に理解され、明瞭化されていない限界に悩まされている。
概念に基づく説明において、よく見過ごされる3つの要因を分析した。
論文 参考訳(メタデータ) (2022-07-20T01:59:39Z) - Expressive Explanations of DNNs by Combining Concept Analysis with ILP [0.3867363075280543]
我々は,dnn(feed-forward convolutional deep neural network)の理論的根拠をグローバル,表現的,言語的に説明するために,ネットワークが学習した本質的特徴を用いた。
我々の説明は元々のブラックボックスモデルに忠実であることを示している。
論文 参考訳(メタデータ) (2021-05-16T07:00:27Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths [128.13034600968257]
本稿では、まず、推論チェーンでテキストブリッジとして機能する基礎概念を抽出する手法を提案する。
推論プロセスを容易にするために,文と橋梁の概念の関連性を構築するために,外部コモンセンス知識を利用する。
橋梁の概念抽出モデルを設計し,まず三重奏を採点し,その経路を導出し,さらに弱い監督で橋梁の概念を選定する。
論文 参考訳(メタデータ) (2020-09-24T15:27:20Z) - Exploring Explainable Selection to Control Abstractive Summarization [51.74889133688111]
説明可能性を重視した新しいフレームワークを開発する。
新しいペアワイズ行列は、文の相互作用、中心性、属性スコアをキャプチャする。
コンストラクタ内の文分割アテンション機構は、最終要約が所望のコンテンツを強調することを保証する。
論文 参考訳(メタデータ) (2020-04-24T14:39:34Z) - Generating Hierarchical Explanations on Text Classification via Feature
Interaction Detection [21.02924712220406]
特徴的相互作用を検出することによって階層的な説明を構築する。
このような説明は、単語とフレーズが階層の異なるレベルでどのように結合されるかを視覚化する。
実験は、モデルに忠実であり、人間に解釈可能な説明を提供する上で、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2020-04-04T20:56:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。