論文の概要: GCI: A (G)raph (C)oncept (I)nterpretation Framework
- arxiv url: http://arxiv.org/abs/2302.04899v1
- Date: Thu, 9 Feb 2023 19:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 17:24:57.748329
- Title: GCI: A (G)raph (C)oncept (I)nterpretation Framework
- Title(参考訳): GCI: A (G)raph (C)oncept (I)nterpretation Framework
- Authors: Dmitry Kazhdan, Botty Dimanov, Lucie Charlotte Magister, Pietro
Barbiero, Mateja Jamnik, Pietro Lio
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)から発見された概念とそれに対応する人間の解釈とのアライメントを定量的に測定するために用いられるGCI: a (G)raph (C)oncept (I)nterpretationフレームワークについて述べる。
我々は,GCIの4つの応用を実証する: (i)概念抽出器の定量的評価, (ii)概念抽出器と人間の解釈との整合性の測定, (iii)最終課題に対する解釈の完全性の測定, (iv)分子特性予測へのGCIの実践的応用。
- 参考スコア(独自算出の注目度): 4.475779734632896
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) underwent a recent surge in research on concept
extraction, focusing on extracting human-interpretable concepts from Deep
Neural Networks. An important challenge facing concept extraction approaches is
the difficulty of interpreting and evaluating discovered concepts, especially
for complex tasks such as molecular property prediction. We address this
challenge by presenting GCI: a (G)raph (C)oncept (I)nterpretation framework,
used for quantitatively measuring alignment between concepts discovered from
Graph Neural Networks (GNNs) and their corresponding human interpretations. GCI
encodes concept interpretations as functions, which can be used to
quantitatively measure the alignment between a given interpretation and concept
definition. We demonstrate four applications of GCI: (i) quantitatively
evaluating concept extractors, (ii) measuring alignment between concept
extractors and human interpretations, (iii) measuring the completeness of
interpretations with respect to an end task and (iv) a practical application of
GCI to molecular property prediction, in which we demonstrate how to use
chemical functional groups to explain GNNs trained on molecular property
prediction tasks, and implement interpretations with a 0.76 AUCROC completeness
score.
- Abstract(参考訳): 説明可能なAI(XAI)は、Deep Neural Networksから人間解釈可能な概念を抽出することに焦点を当てた、概念抽出の研究が最近急増した。
概念抽出アプローチに直面する重要な課題は、特に分子特性予測のような複雑なタスクにおいて、発見された概念を解釈し評価することの難しさである。
グラフニューラルネットワーク(GNN)から発見された概念とそれに対応する人間の解釈とのアライメントを定量的に測定するために使用される(G)raph (C)onterpretationフレームワーク。
GCIは概念解釈を関数としてエンコードし、与えられた解釈と概念定義のアライメントを定量的に測定することができる。
GCIの4つの応用例を示す。
一 概念抽出器を定量的に評価すること
(ii)概念抽出器と人間の解釈のアライメントの測定
三 終了業務に関する解釈の完全性の測定及び
(4) 分子特性予測へのGCIの実践的応用として, 分子特性予測タスクで訓練されたGNNを化学官能基を用いて説明し, 0.76 AUCROC完全性スコアで解釈を実装した。
関連論文リスト
- Global Concept Explanations for Graphs by Contrastive Learning [0.6906005491572401]
本稿では,グラフニューラルネットワークの予測からグローバルな概念記述を抽出する手法を提案する。
合成および実世界のグラフ特性予測タスクに関する計算実験を行う。
論文 参考訳(メタデータ) (2024-04-25T11:43:46Z) - Concept Induction using LLMs: a user experiment for assessment [1.1982127665424676]
本研究では,人間に対する説明として意味のある高レベルな概念を生成するために,LLM(Large Language Model)の可能性を探る。
我々は、LLMによって生成された概念を、人間によって生成された概念とECII概念誘導システムという、他の2つの方法と比較する。
人為的な説明は依然として優れているが, GPT-4 から派生した概念は, ECII が生成した概念よりも人間にとって理解しやすいことが示唆された。
論文 参考訳(メタデータ) (2024-04-18T03:22:02Z) - Everybody Needs a Little HELP: Explaining Graphs via Hierarchical
Concepts [12.365451175795338]
グラフニューラルネットワーク(GNN)は、薬物発見、ソーシャルネットワーク分析、旅行時間推定などの領域でブレークスルーをもたらしている。
人間の信頼を妨げる解釈性が欠如しているため、高い判断を下すような設定にデプロイされる。
HELPは、異なるGNN層の概念が後続のステップで新しい概念にどのように構成されるかを明らかにする、本質的に解釈可能な新しいグラフプーリング手法である。
論文 参考訳(メタデータ) (2023-11-25T20:06:46Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Interpretability is in the Mind of the Beholder: A Causal Framework for
Human-interpretable Representation Learning [22.201878275784246]
説明可能なAIは、入力機能などの低レベル要素の観点から定義された説明から、データから学んだ解釈可能な概念でエンコードされた説明へとシフトしている。
しかし、そのような概念を確実に取得する方法は、基本的には不明確である。
ポストホックな説明器と概念に基づくニューラルネットワークの両方に適した解釈可能な表現を得るための数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-14T14:26:20Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - GlanceNets: Interpretabile, Leak-proof Concept-based Models [23.7625973884849]
概念ベースモデル(CBM)は、高レベルの概念の語彙の獲得と推論によって、ハイパフォーマンスと解釈可能性を組み合わせる。
我々は、モデル表現と基礎となるデータ生成プロセスとの整合性の観点から、解釈可能性を明確に定義する。
GlanceNetsは不整合表現学習とオープンセット認識の技法を利用してアライメントを実現する新しいCBMである。
論文 参考訳(メタデータ) (2022-05-31T08:53:53Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - A Chain Graph Interpretation of Real-World Neural Networks [58.78692706974121]
本稿では,NNを連鎖グラフ(CG)、フィードフォワードを近似推論手法として識別する別の解釈を提案する。
CG解釈は、確率的グラフィカルモデルのリッチな理論的枠組みの中で、各NNコンポーネントの性質を規定する。
我々は,CG解釈が様々なNN技術に対する新しい理論的支援と洞察を提供することを示す具体例を実例で示す。
論文 参考訳(メタデータ) (2020-06-30T14:46:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。