論文の概要: Neural Message-Passing on Attention Graphs for Hallucination Detection
- arxiv url: http://arxiv.org/abs/2509.24770v1
- Date: Mon, 29 Sep 2025 13:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.006814
- Title: Neural Message-Passing on Attention Graphs for Hallucination Detection
- Title(参考訳): 意識グラフを用いた幻覚検出のためのニューラルメッセージパッシング
- Authors: Fabrizio Frasca, Guy Bar-Shalom, Yftah Ziser, Haggai Maron,
- Abstract要約: CHARMは、グラフ学習タスクとして幻覚検出をキャストし、上記の属性グラフにGNNを適用することでそれに取り組む。
我々は、CHARMが事前の注意に基づくトレースを確実に仮定し、実験的に、様々なベンチマークで他のアプローチを一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 32.29963721910821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) often generate incorrect or unsupported content, known as hallucinations. Existing detection methods rely on heuristics or simple models over isolated computational traces such as activations, or attention maps. We unify these signals by representing them as attributed graphs, where tokens are nodes, edges follow attentional flows, and both carry features from attention scores and activations. Our approach, CHARM, casts hallucination detection as a graph learning task and tackles it by applying GNNs over the above attributed graphs. We show that CHARM provably subsumes prior attention-based heuristics and, experimentally, it consistently outperforms other leading approaches across diverse benchmarks. Our results shed light on the relevant role played by the graph structure and on the benefits of combining computational traces, whilst showing CHARM exhibits promising zero-shot performance on cross-dataset transfer.
- Abstract(参考訳): LLM(Large Language Models)は、しばしば幻覚(幻覚)と呼ばれる誤った、またはサポートされていないコンテンツを生成する。
既存の検出方法は、アクティベーションやアテンションマップのような孤立した計算トレースよりも、ヒューリスティックスや単純なモデルに依存している。
トークンはノードであり、エッジは注意の流れに従っており、どちらも注目スコアやアクティベーションから特徴を持ちます。
我々のアプローチであるCHARMは、グラフ学習タスクとして幻覚検出をキャストし、上記の属性グラフにGNNを適用することでそれに取り組む。
我々は、CHARMが事前の注意に基づくヒューリスティックスを確実に仮定し、実験的に、様々なベンチマークで他の主要なアプローチを一貫して上回っていることを示す。
以上の結果から,グラフ構造が果たす役割と,計算トレースを組み合わせた利点を浮き彫りにした上で,CHARMはクロスデータセット転送におけるゼロショット性能を期待できることを示した。
関連論文リスト
- Hallucination Detection in LLMs with Topological Divergence on Attention Graphs [64.74977204942199]
幻覚(Halucination)、すなわち、事実的に誤ったコンテンツを生成することは、大きな言語モデルにとって重要な課題である。
本稿では,TOHA (Topology-based HAllucination detector) をRAG設定に導入する。
論文 参考訳(メタデータ) (2025-04-14T10:06:27Z) - Hallucination Detection in LLMs Using Spectral Features of Attention Maps [8.820670807424174]
大規模言語モデル(LLM)は様々なタスクで顕著な性能を示してきたが、幻覚の傾向は残っていない。
最近の手法はこの目的に注意マップの特性を利用するが、その効果は限られている。
本稿では,注意マップから導出したラプラシア行列の上位k$固有値を幻覚検出プローブの入力として用いるtextLapEigvals$法を提案する。
論文 参考訳(メタデータ) (2025-02-24T19:30:24Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Integrating a Heterogeneous Graph with Entity-aware Self-attention using
Relative Position Labels for Reading Comprehension Model [14.721615285883429]
異種グラフからの推論知識を外部知識に頼らずにトランスフォーマーアーキテクチャに組み込む新しい注意パターンを導入する。
提案する注目パターンは, 単語トークンに対するグローバルな注意, グラフに関連付けられたトークンに対する強い注意を示すエンティティトークンに対するグラフの注意, 各エンティティトークンとワードトークンの関係のタイプを考慮した3つの重要な要素から構成される。
我々のモデルは、最先端のLUKE-GraphとベースラインのLUKEモデルの両方を2つの異なるデータセットで比較した。
論文 参考訳(メタデータ) (2023-07-19T20:17:37Z) - Causally-guided Regularization of Graph Attention Improves
Generalizability [69.09877209676266]
本稿では,グラフアテンションネットワークのための汎用正規化フレームワークであるCARを紹介する。
メソッド名は、グラフ接続に対するアクティブ介入の因果効果とアテンションメカニズムを一致させる。
ソーシャル・メディア・ネットワーク規模のグラフでは、CAR誘導グラフ再構成アプローチにより、グラフの畳み込み手法のスケーラビリティとグラフの注意力の向上を両立させることができる。
論文 参考訳(メタデータ) (2022-10-20T01:29:10Z) - Beyond the Gates of Euclidean Space: Temporal-Discrimination-Fusions and
Attention-based Graph Neural Network for Human Activity Recognition [5.600003119721707]
ウェアラブルデバイスによるヒューマンアクティビティ認識(HAR)は、フィットネストラッキング、ウェルネススクリーニング、生活支援など多くの応用により、大きな関心を集めている。
従来のディープラーニング(DL)は、HARドメインのアートパフォーマンスの状態を規定している。
提案手法はグラフニューラルネットワーク(GNN)を用いて,入力表現を構造化し,サンプル間の関係性を利用する手法である。
論文 参考訳(メタデータ) (2022-06-10T03:04:23Z) - How to Find Your Friendly Neighborhood: Graph Attention Design with
Self-Supervision [16.86132592140062]
ノイズグラフに対する自己教師付きグラフアテンションネットワーク(SuperGAT)を提案する。
我々は、エッジを予測するために、自己教師型タスクと互換性のある2つの注意形式を利用する。
エッジを符号化することで、SuperGATは、リンクされた隣人を識別する際に、より表現力のある注意を学習する。
論文 参考訳(メタデータ) (2022-04-11T05:45:09Z) - FDGATII : Fast Dynamic Graph Attention with Initial Residual and
Identity Mapping [0.39373541926236766]
本稿では,注目機構が選択情報に注目する能力に触発された新しいグラフニューラルネットワークFDGATIIを提案する。
FDG ATII は設計において本質的に並列化可能であり、操作ではホイット効率がよい。
FDG ATII は GAT と GCN をベースとしたベンチマークにおいて,完全教師付きタスクの精度と性能に優れることを示す。
論文 参考訳(メタデータ) (2021-10-21T20:19:17Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。