論文の概要: GraphNarrator: Generating Textual Explanations for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2410.15268v2
- Date: Wed, 28 May 2025 18:45:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 15:42:32.6085
- Title: GraphNarrator: Generating Textual Explanations for Graph Neural Networks
- Title(参考訳): GraphNarrator: グラフニューラルネットワークのためのテキスト記述を生成する
- Authors: Bo Pan, Zhen Xiong, Guanchen Wu, Zheng Zhang, Yifei Zhang, Liang Zhao,
- Abstract要約: グラフニューラルネットワークのための自然言語説明を生成するための最初の方法であるGraphNarratorを提案する。
モデルを訓練するための基礎的真理説明の欠如に対処するために、まず、正当性に基づく説明からモデルの判断を捉える擬似ラベルを生成することを提案する。
高品質な擬似ラベルを使用して、エンド・ツー・エンドの説明生成モデルを訓練する。
- 参考スコア(独自算出の注目度): 14.367754016281934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph representation learning has garnered significant attention due to its broad applications in various domains, such as recommendation systems and social network analysis. Despite advancements in graph learning methods, challenges still remain in explainability when graphs are associated with semantic features. In this paper, we present GraphNarrator, the first method designed to generate natural language explanations for Graph Neural Networks. GraphNarrator employs a generative language model that maps input-output pairs to explanations reflecting the model's decision-making process. To address the lack of ground truth explanations to train the model, we propose first generating pseudo-labels that capture the model's decisions from saliency-based explanations, then using Expert Iteration to iteratively train the pseudo-label generator based on training objectives on explanation quality. The high-quality pseudo-labels are finally utilized to train an end-to-end explanation generator model. Extensive experiments are conducted to demonstrate the effectiveness of GraphNarrator in producing faithful, concise, and human-preferred natural language explanations.
- Abstract(参考訳): グラフ表現学習は、レコメンデーションシステムやソーシャルネットワーク分析など、様々な分野で広く応用されているため、大きな注目を集めている。
グラフ学習手法の進歩にもかかわらず、グラフがセマンティックな特徴と関連付けられている場合、問題はまだ説明可能である。
本稿では,グラフニューラルネットワークのための自然言語記述法であるGraphNarratorを提案する。
GraphNarratorは、入力と出力のペアをモデルの決定過程を反映した説明にマッピングする生成言語モデルを採用している。
そこで本研究では, モデル学習のための基礎的真理説明の欠如に対処するため, まず, 正当性に基づく説明からモデルの判断を捉えた擬似ラベルを生成し, そして専門家反復を用いて, 説明品質に基づく訓練目標に基づいて擬似ラベル生成を反復的に訓練する手法を提案する。
高品質な擬似ラベルを使用して、エンド・ツー・エンドの説明生成モデルを訓練する。
GraphNarratorは, 忠実で簡潔で, 人間の好む自然言語の理解に有効であることを示すために, 広範囲にわたる実験を行った。
関連論文リスト
- From Text to Graph: Leveraging Graph Neural Networks for Enhanced Explainability in NLP [3.864700176441583]
本研究では,自然言語処理タスクにおける説明可能性を実現するための新しい手法を提案する。
自動的に文をグラフに変換し、ノードや関係を通じて意味を維持する。
実験は、与えられた分類のためのテキスト構造の中で最も重要なコンポーネントを決定するための有望な結果をもたらした。
論文 参考訳(メタデータ) (2025-04-02T18:55:58Z) - Towards LLM-guided Causal Explainability for Black-box Text Classifiers [16.36602400590088]
我々は,近年の大規模言語モデルにおける命令追従とテキスト理解機能を活用して,因果的説明可能性を高めることを目指している。
提案する3ステップパイプラインは,既製のLCMを用いて,入力テキスト中の潜時的・未観測な特徴を識別する。
我々は,複数のNLPテキスト分類データセットを用いたパイプライン実験を行い,興味深い,有望な結果を示した。
論文 参考訳(メタデータ) (2023-09-23T11:22:28Z) - Few Shot Rationale Generation using Self-Training with Dual Teachers [4.91890875296663]
予測ラベルのフリーテキスト説明も生成するセルフリレーゼーションモデルは、信頼できるAIアプリケーションを構築する上で重要なツールである。
タスク予測と合理化のための2つの専門教師モデルを学ぶ。
新しい損失関数Masked Label Regularization (MLR) を定式化した。
論文 参考訳(メタデータ) (2023-06-05T23:57:52Z) - Saliency Map Verbalization: Comparing Feature Importance Representations
from Model-free and Instruction-based Methods [6.018950511093273]
サージェンシマップは、重要な入力特徴を特定することによって、ニューラルネットワークの予測を説明することができる。
我々は,サリエンシマップを自然言語に翻訳する未調査課題を定式化する。
本研究では,従来の特徴強調表現と比較した2つの新手法(検索ベースおよび命令ベース言語化)を比較した。
論文 参考訳(メタデータ) (2022-10-13T17:48:15Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Graph-based Multi-hop Reasoning for Long Text Generation [66.64743847850666]
MRGはグラフベースのマルチホップ推論モジュールとパス認識文実現モジュールの2部で構成されている。
従来のブラックボックスモデルとは異なり、MRGはスケルトンパスを明示的に推論し、提案されたモデルがどのように機能するかを説明する説明的なビューを提供する。
論文 参考訳(メタデータ) (2020-09-28T12:47:59Z) - ALICE: Active Learning with Contrastive Natural Language Explanations [69.03658685761538]
本研究では,学習におけるデータ効率を向上させるために,AlICEを用いたアクティブラーニングを提案する。
ALICEは、まずアクティブラーニングを使用して、最も情報に富んだラベルクラスを選択し、対照的な自然言語の説明を引き出す。
意味的に抽出された知識を用いて、これらの説明から知識を抽出する。
論文 参考訳(メタデータ) (2020-09-22T01:02:07Z) - NILE : Natural Language Inference with Faithful Natural Language
Explanations [10.074153632701952]
ラベル特定説明(NILE)に対する自然言語推論を提案する。
NILEは、ラベル固有の説明を自動生成し、その忠実な説明とともにラベルを作成する新しいNLI手法である。
我々は, NILE の説明の忠実さを, 対応する説明に対する決定の敏感さの観点から論じる。
論文 参考訳(メタデータ) (2020-05-25T13:56:03Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Temporal Embeddings and Transformer Models for Narrative Text
Understanding [72.88083067388155]
キャラクタ関係モデリングのための物語テキスト理解のための2つのアプローチを提案する。
これらの関係の時間的進化は動的単語埋め込みによって説明され、時間とともに意味的変化を学ぶように設計されている。
最新の変換器モデルBERTに基づく教師付き学習手法を用いて文字間の静的な関係を検出する。
論文 参考訳(メタデータ) (2020-03-19T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。