論文の概要: DGP: A Dual-Granularity Prompting Framework for Fraud Detection with Graph-Enhanced LLMs
- arxiv url: http://arxiv.org/abs/2507.21653v1
- Date: Tue, 29 Jul 2025 10:10:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.977779
- Title: DGP: A Dual-Granularity Prompting Framework for Fraud Detection with Graph-Enhanced LLMs
- Title(参考訳): DGP:グラフ強化LDMによるフラッド検出のためのデュアルグラニュリティ・プロンプトフレームワーク
- Authors: Yuan Li, Jun Hu, Bryan Hooi, Bingsheng He, Cheng Chen,
- Abstract要約: 実世界の不正検出アプリケーションは、しばしばテキストデータに富んだノード特徴とグラフ構造情報を共同で活用するグラフ学習技術の恩恵を受ける。
グラフ強化LSMは、グラフ情報をプロンプトに変換する、有望なグラフ学習アプローチとして登場します。
目的ノードの細粒度テキストの詳細を保存し,情報過負荷を軽減するDGPを提案する。
- 参考スコア(独自算出の注目度): 55.13817504780764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world fraud detection applications benefit from graph learning techniques that jointly exploit node features, often rich in textual data, and graph structural information. Recently, Graph-Enhanced LLMs emerge as a promising graph learning approach that converts graph information into prompts, exploiting LLMs' ability to reason over both textual and structural information. Among them, text-only prompting, which converts graph information to prompts consisting solely of text tokens, offers a solution that relies only on LLM tuning without requiring additional graph-specific encoders. However, text-only prompting struggles on heterogeneous fraud-detection graphs: multi-hop relations expand exponentially with each additional hop, leading to rapidly growing neighborhoods associated with dense textual information. These neighborhoods may overwhelm the model with long, irrelevant content in the prompt and suppress key signals from the target node, thereby degrading performance. To address this challenge, we propose Dual Granularity Prompting (DGP), which mitigates information overload by preserving fine-grained textual details for the target node while summarizing neighbor information into coarse-grained text prompts. DGP introduces tailored summarization strategies for different data modalities, bi-level semantic abstraction for textual fields and statistical aggregation for numerical features, enabling effective compression of verbose neighbor content into concise, informative prompts. Experiments across public and industrial datasets demonstrate that DGP operates within a manageable token budget while improving fraud detection performance by up to 6.8% (AUPRC) over state-of-the-art methods, showing the potential of Graph-Enhanced LLMs for fraud detection.
- Abstract(参考訳): 実世界の不正検出アプリケーションは、しばしばテキストデータに富んだノード特徴とグラフ構造情報を共同で活用するグラフ学習技術の恩恵を受ける。
近年,グラフ強化 LLM はグラフ情報をプロンプトに変換する有望なグラフ学習手法として登場し,テキスト情報と構造情報の両方を解析する LLM の能力を活用している。
その中でも、グラフ情報をテキストトークンのみからなるプロンプトに変換するテキスト専用プロンプトは、追加のグラフ固有のエンコーダを必要とせずに、LLMチューニングのみに依存するソリューションを提供する。
マルチホップ関係は、追加のホップごとに指数関数的に拡大し、密集したテキスト情報に関連する地区が急速に成長する。
これらの近傍は、プロンプト内の長い無関係な内容でモデルを圧倒し、ターゲットノードからのキー信号を抑制し、性能を低下させる。
この課題に対処するため,DGP (Dual Granularity Prompting) を提案する。
DGPは、異なるデータモダリティのための調整された要約戦略、テキストフィールドのためのバイレベルセマンティック抽象化、数値的特徴のための統計集約を導入し、冗長な隣のコンテンツを簡潔で情報的なプロンプトに効果的に圧縮できるようにする。
パブリックデータセットと産業データセットでの実験では、DGPは管理可能なトークン予算内で動作し、不正検出性能は最先端の手法よりも最大6.8%向上している。
関連論文リスト
- Can LLMs Find Fraudsters? Multi-level LLM Enhanced Graph Fraud Detection [1.3801049069666116]
我々は、MLEDと呼ばれる、textbfMultiレベルのtextbfLLM textbfEnhanced Graph Fraud textbfDetectionフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-16T07:50:43Z) - LLM as GNN: Graph Vocabulary Learning for Text-Attributed Graph Foundation Models [54.82915844507371]
Text-Attributed Graphs (TAG) は、現実のシナリオにおいてユビキタスである。
大規模言語モデル(LLMs)とグラフニューラルネットワーク(GNNs)をTAGsに統合する努力にもかかわらず、既存のアプローチは分離されたアーキテクチャに悩まされている。
本稿では,グラフ語彙学習に基づくTAGのための汎用GFMであるPromptGFMを提案する。
論文 参考訳(メタデータ) (2025-03-05T09:45:22Z) - Democratizing Large Language Model-Based Graph Data Augmentation via Latent Knowledge Graphs [22.218522445858344]
グラフデータの不足やノイズによるグラフ表現学習には,データ拡張が必要である。
我々は、LCMのガイダンスであるDemoGraphを用いて、ブラックボックスのコンテキスト駆動グラフデータ拡張手法を提案する。
本手法は,電子健康記録(EHRs)のシナリオに優れ,文脈知識の最大限活用を実証する。
論文 参考訳(メタデータ) (2025-02-19T09:00:32Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Can we Soft Prompt LLMs for Graph Learning Tasks? [22.286189757942054]
GraphPrompterは、グラフ情報とLLM(Large Language Models)をソフトプロンプトで整合させるように設計されたフレームワークである。
このフレームワークは、グラフ関連タスクの予測子としてLLMの実質的な機能を明らかにしている。
論文 参考訳(メタデータ) (2024-02-15T23:09:42Z) - Which Modality should I use -- Text, Motif, or Image? : Understanding Graphs with Large Language Models [14.251972223585765]
本稿では,テキスト,画像,モチーフなどの多様性を持つグラフを符号化する新たな手法を提案する。
また、グラフ構造解析において、LLM(Large Language Models)を評価するための新しいベンチマークであるGraphTMIも提示されている。
論文 参考訳(メタデータ) (2023-11-16T12:45:41Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。