論文の概要: Interpretable Neural-Symbolic Concept Reasoning
- arxiv url: http://arxiv.org/abs/2304.14068v2
- Date: Mon, 22 May 2023 07:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 03:11:19.152563
- Title: Interpretable Neural-Symbolic Concept Reasoning
- Title(参考訳): 解釈可能なニューラルシンボリック概念推論
- Authors: Pietro Barbiero, Gabriele Ciravegna, Francesco Giannini, Mateo
Espinosa Zarlenga, Lucie Charlotte Magister, Alberto Tonda, Pietro Lio',
Frederic Precioso, Mateja Jamnik, Giuseppe Marra
- Abstract要約: 概念に基づくモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処することを目的としている。
本稿では,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
- 参考スコア(独自算出の注目度): 7.1904050674791185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning methods are highly accurate, yet their opaque decision process
prevents them from earning full human trust. Concept-based models aim to
address this issue by learning tasks based on a set of human-understandable
concepts. However, state-of-the-art concept-based models rely on
high-dimensional concept embedding representations which lack a clear semantic
meaning, thus questioning the interpretability of their decision process. To
overcome this limitation, we propose the Deep Concept Reasoner (DCR), the first
interpretable concept-based model that builds upon concept embeddings. In DCR,
neural networks do not make task predictions directly, but they build syntactic
rule structures using concept embeddings. DCR then executes these rules on
meaningful concept truth degrees to provide a final interpretable and
semantically-consistent prediction in a differentiable manner. Our experiments
show that DCR: (i) improves up to +25% w.r.t. state-of-the-art interpretable
concept-based models on challenging benchmarks (ii) discovers meaningful logic
rules matching known ground truths even in the absence of concept supervision
during training, and (iii), facilitates the generation of counterfactual
examples providing the learnt rules as guidance.
- Abstract(参考訳): ディープラーニングの手法は非常に正確だが、その不透明な決定プロセスは、完全な人間の信頼を得ることを妨げている。
概念ベースのモデルは、人間の理解可能な概念のセットに基づいてタスクを学習することでこの問題に対処しようとしている。
しかし、最先端の概念に基づくモデルは、明確な意味的意味を欠いた高次元概念埋め込み表現に依存するため、決定プロセスの解釈可能性に疑問を呈する。
この制限を克服するために,概念埋め込みに基づく最初の解釈可能な概念ベースモデルであるDeep Concept Reasoner (DCR)を提案する。
DCRでは、ニューラルネットワークはタスク予測を直接行うのではなく、概念埋め込みを使用して構文ルール構造を構築する。
DCRはこれらのルールを意味のある概念の真理度で実行し、最終的な解釈可能かつ意味的に一貫性のある予測を微分可能な方法で提供する。
我々の実験はDCRが示す。
i) 挑戦的ベンチマーク上での最先端の解釈可能な概念ベースモデルに最大25%の改善
(ii)訓練中の概念監督がなくても、既知の根拠の真理に合致する有意義な論理規則を発見し、
(iii) 学習ルールをガイダンスとして提供する反実例の生成を促進する。
関連論文リスト
- ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Do Concept Bottleneck Models Obey Locality? [16.141263815153206]
概念に基づく学習は、人間の理解可能な概念を通して予測を説明することによって、深層学習モデルの解釈可能性を改善する。
最近の研究は、この仮定がConcept Bottleneck Models(CBM)で成り立たないことを強く示唆している。
CBMは、そのような概念が空間的にも意味的にも局所化されているとき、概念間の条件独立の度合いを捉えている。
その結果,CBMが学習した概念表現の質に疑問を呈し,概念に基づく説明は地域外の変化に対して脆弱である可能性が強く示唆された。
論文 参考訳(メタデータ) (2024-01-02T16:05:23Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Implicit Concept Removal of Diffusion Models [96.03200681493348]
テキスト・ツー・イメージ(T2I)拡散モデルは、透かしや安全でない画像などの不要な概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - ConceptX: A Framework for Latent Concept Analysis [21.760620298330235]
本稿では,言語モデル(pLM)における潜在表現空間の解釈と注釈付けを行うための,ループ型ヒューマン・イン・ザ・ループ・フレームワークであるConceptXを提案する。
我々は、教師なしの手法を用いて、これらのモデルで学んだ概念を発見し、人間が概念の説明を生成するためのグラフィカルインターフェースを実現する。
論文 参考訳(メタデータ) (2022-11-12T11:31:09Z) - Concept Embedding Models [27.968589555078328]
概念ボトルネックモデルは、人間のような概念の中間レベルに分類タスクを条件付けすることで、信頼性を促進する。
既存の概念ボトルネックモデルは、高いタスク精度、堅牢な概念に基づく説明、概念に対する効果的な介入の間の最適な妥協を見つけることができない。
本稿では,解釈可能な高次元概念表現を学習することで,現在の精度-vs-解釈可能性トレードオフを超える新しい概念ボトルネックモデルであるConcept Embedding Modelsを提案する。
論文 参考訳(メタデータ) (2022-09-19T14:49:36Z) - Concept Gradient: Concept-based Interpretation Without Linear Assumption [77.96338722483226]
概念活性化ベクトル(Concept Activation Vector, CAV)は、与えられたモデルと概念の潜在表現の間の線形関係を学習することに依存する。
我々は、線形概念関数を超えて概念に基づく解釈を拡張する概念グラディエント(CG)を提案した。
我々は、CGがおもちゃの例と実世界のデータセットの両方でCAVより優れていることを実証した。
論文 参考訳(メタデータ) (2022-08-31T17:06:46Z) - GlanceNets: Interpretabile, Leak-proof Concept-based Models [23.7625973884849]
概念ベースモデル(CBM)は、高レベルの概念の語彙の獲得と推論によって、ハイパフォーマンスと解釈可能性を組み合わせる。
我々は、モデル表現と基礎となるデータ生成プロセスとの整合性の観点から、解釈可能性を明確に定義する。
GlanceNetsは不整合表現学習とオープンセット認識の技法を利用してアライメントを実現する新しいCBMである。
論文 参考訳(メタデータ) (2022-05-31T08:53:53Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。