論文の概要: Explaining the Reasoning of Large Language Models Using Attribution Graphs
- arxiv url: http://arxiv.org/abs/2512.15663v1
- Date: Wed, 17 Dec 2025 18:15:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.098577
- Title: Explaining the Reasoning of Large Language Models Using Attribution Graphs
- Title(参考訳): 属性グラフを用いた大規模言語モデルの推論
- Authors: Chase Walker, Rickard Ewetz,
- Abstract要約: 我々は、グラフ説明(CAGE)フレームワークを介してContext Attributionを導入する。
CAGEは属性グラフ(en:Atribution graph)を導入している。これは、各世代がプロンプトとすべての前世代からどのように影響を受けているかを定量化する有向グラフである。
複数のモデル、データセット、メトリクス、メソッドにわたって、CAGEはコンテキスト属性の忠実性を改善し、最大40%の平均的なゲインを達成する。
- 参考スコア(独自算出の注目度): 10.088088199704027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) exhibit remarkable capabilities, yet their reasoning remains opaque, raising safety and trust concerns. Attribution methods, which assign credit to input features, have proven effective for explaining the decision making of computer vision models. From these, context attributions have emerged as a promising approach for explaining the behavior of autoregressive LLMs. However, current context attributions produce incomplete explanations by directly relating generated tokens to the prompt, discarding inter-generational influence in the process. To overcome these shortcomings, we introduce the Context Attribution via Graph Explanations (CAGE) framework. CAGE introduces an attribution graph: a directed graph that quantifies how each generation is influenced by both the prompt and all prior generations. The graph is constructed to preserve two properties-causality and row stochasticity. The attribution graph allows context attributions to be computed by marginalizing intermediate contributions along paths in the graph. Across multiple models, datasets, metrics, and methods, CAGE improves context attribution faithfulness, achieving average gains of up to 40%.
- Abstract(参考訳): 大きな言語モデル(LLM)は優れた能力を示すが、その推論は不透明であり、安全性と信頼性の懸念が高まる。
入力特徴にクレジットを割り当てる属性法は、コンピュータビジョンモデルの意思決定を説明するのに有効であることが証明されている。
これらのことから, 自己回帰型LDMの挙動を説明するための有望なアプローチとして, 文脈属性が出現している。
しかし、現在の文脈属性は、生成したトークンをプロンプトに直接関連付け、プロセスにおける世代間影響を捨てることで、不完全な説明を生み出している。
これらの欠点を克服するために、グラフ説明(CAGE)フレームワークによるContext Attributionを紹介します。
CAGEは属性グラフ(en:Atribution graph)を導入している。これは、各世代がプロンプトとすべての前世代からどのように影響を受けているかを定量化する有向グラフである。
このグラフは2つの性質-因果性と行確率性を保存するために構築される。
属性グラフは、グラフの経路に沿って中間的コントリビューションを余分にすることで、文脈属性を計算することができる。
複数のモデル、データセット、メトリクス、メソッドにわたって、CAGEはコンテキスト属性の忠実性を改善し、最大40%の平均的なゲインを達成する。
関連論文リスト
- Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - ICLR: In-Context Learning of Representations [19.331483579806623]
文脈の規模が拡大するにつれて、事前訓練された意味表現から、グラフ構造に整合した文脈内表現への突然の再構成が存在することを示す。
以上の結果から,拡張コンテキストサイズはモデル表現を柔軟に再構成し,新たな能力を解き放つ可能性が示唆された。
論文 参考訳(メタデータ) (2024-12-29T18:58:09Z) - Integrating Large Language Models with Graph-based Reasoning for Conversational Question Answering [58.17090503446995]
我々は,テキストや知識グラフ,テーブル,インフォボックスといった異質な情報源から収集された証拠について,文脈における質問の理解と推論の課題を組み合わせた会話型質問応答タスクに着目する。
提案手法はグラフ構造表現を用いて質問とその文脈に関する情報を集約する。
論文 参考訳(メタデータ) (2024-06-14T13:28:03Z) - Structure Your Data: Towards Semantic Graph Counterfactuals [1.8817715864806608]
概念に基づく対実的説明(CE)は、モデル予測にどの高レベルな意味的特徴が寄与するかを理解するための代替シナリオを考える説明である。
本研究では,入力データに付随する意味グラフに基づくCEを提案する。
論文 参考訳(メタデータ) (2024-03-11T08:40:37Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。