論文の概要: Enhancing the Comprehensibility of Text Explanations via Unsupervised Concept Discovery
- arxiv url: http://arxiv.org/abs/2505.20293v1
- Date: Mon, 26 May 2025 17:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:20.457106
- Title: Enhancing the Comprehensibility of Text Explanations via Unsupervised Concept Discovery
- Title(参考訳): 教師なし概念発見による文章説明の理解性向上
- Authors: Yifan Sun, Danding Wang, Qiang Sheng, Juan Cao, Jintao Li,
- Abstract要約: ECO-Conceptは、概念アノテーションなしで理解可能な概念を発見するための、本質的に解釈可能なフレームワークである。
本手法は多種多様なタスクにまたがって優れた性能を実現する。
さらなる概念評価は、ECO-Conceptが学んだ概念が理解度において現在の概念を上回っていることを検証する。
- 参考スコア(独自算出の注目度): 21.58887931556088
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concept-based explainable approaches have emerged as a promising method in explainable AI because they can interpret models in a way that aligns with human reasoning. However, their adaption in the text domain remains limited. Most existing methods rely on predefined concept annotations and cannot discover unseen concepts, while other methods that extract concepts without supervision often produce explanations that are not intuitively comprehensible to humans, potentially diminishing user trust. These methods fall short of discovering comprehensible concepts automatically. To address this issue, we propose \textbf{ECO-Concept}, an intrinsically interpretable framework to discover comprehensible concepts with no concept annotations. ECO-Concept first utilizes an object-centric architecture to extract semantic concepts automatically. Then the comprehensibility of the extracted concepts is evaluated by large language models. Finally, the evaluation result guides the subsequent model fine-tuning to obtain more understandable explanations. Experiments show that our method achieves superior performance across diverse tasks. Further concept evaluations validate that the concepts learned by ECO-Concept surpassed current counterparts in comprehensibility.
- Abstract(参考訳): 概念に基づく説明可能なアプローチは、人間の推論に沿った方法でモデルを解釈できるため、説明可能なAIにおいて有望な方法として登場した。
しかし、テキスト領域への適応は依然として限られている。
既存のほとんどのメソッドは、事前に定義された概念アノテーションに依存しており、目に見えない概念を発見できないが、一方で、監督なしで概念を抽出する他のメソッドは、直感的に人間に理解できない説明を生み出し、ユーザ信頼を低下させる可能性がある。
これらの手法は、自動的に理解可能な概念を発見するには不十分である。
この問題に対処するために,概念アノテーションを使わずに理解可能な概念を発見するための,本質的に解釈可能なフレームワークである「textbf{ECO-Concept}」を提案する。
ECO-Conceptはまず、オブジェクト中心アーキテクチャを使用してセマンティック概念を自動的に抽出する。
そして、抽出された概念の理解性は、大規模言語モデルにより評価される。
最後に、評価結果は、その後のモデル微調整をガイドし、より理解しやすい説明を得る。
実験により,本手法は多種多様なタスクにおいて優れた性能を発揮することが示された。
さらなる概念評価は、ECO-Conceptが学んだ概念が理解度において現在の概念を上回っていることを検証する。
関連論文リスト
- Discover-then-Name: Task-Agnostic Concept Bottlenecks via Automated Concept Discovery [52.498055901649025]
ディープニューラルネットワークの「ブラックボックス」問題に対処するために、概念ボトルネックモデル(CBM)が提案されている。
本稿では,典型的なパラダイムを逆転させる新しいCBMアプローチであるDiscover-then-Name-CBM(DN-CBM)を提案する。
我々の概念抽出戦略は、下流のタスクに非依存であり、既にそのモデルに知られている概念を使用するため、効率的である。
論文 参考訳(メタデータ) (2024-07-19T17:50:11Z) - Concept Induction using LLMs: a user experiment for assessment [1.1982127665424676]
本研究では,人間に対する説明として意味のある高レベルな概念を生成するために,LLM(Large Language Model)の可能性を探る。
我々は、LLMによって生成された概念を、人間によって生成された概念とECII概念誘導システムという、他の2つの方法と比較する。
人為的な説明は依然として優れているが, GPT-4 から派生した概念は, ECII が生成した概念よりも人間にとって理解しやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-18T03:22:02Z) - A survey on Concept-based Approaches For Model Improvement [2.1516043775965565]
概念は人間の思考基盤として知られている。
ディープニューラルネットワーク(DNN)における様々な概念表現とその発見アルゴリズムの体系的レビューと分類について述べる。
また,これらの手法を総合的に調査した最初の論文として,概念に基づくモデル改善文献について詳述する。
論文 参考訳(メタデータ) (2024-03-21T17:09:20Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Interpretable Neural-Symbolic Concept Reasoning [7.1904050674791185]
概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
論文 参考訳(メタデータ) (2023-04-27T09:58:15Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。