論文の概要: Can LLMs Find Fraudsters? Multi-level LLM Enhanced Graph Fraud Detection
- arxiv url: http://arxiv.org/abs/2507.11997v1
- Date: Wed, 16 Jul 2025 07:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.286367
- Title: Can LLMs Find Fraudsters? Multi-level LLM Enhanced Graph Fraud Detection
- Title(参考訳): LLMはフラッドスターを見つけることができるか?マルチレベルLLM強化グラフフラッド検出
- Authors: Tairan Huang, Yili Wang,
- Abstract要約: 我々は、MLEDと呼ばれる、textbfMultiレベルのtextbfLLM textbfEnhanced Graph Fraud textbfDetectionフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.3801049069666116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph fraud detection has garnered significant attention as Graph Neural Networks (GNNs) have proven effective in modeling complex relationships within multimodal data. However, existing graph fraud detection methods typically use preprocessed node embeddings and predefined graph structures to reveal fraudsters, which ignore the rich semantic cues contained in raw textual information. Although Large Language Models (LLMs) exhibit powerful capabilities in processing textual information, it remains a significant challenge to perform multimodal fusion of processed textual embeddings with graph structures. In this paper, we propose a \textbf{M}ulti-level \textbf{L}LM \textbf{E}nhanced Graph Fraud \textbf{D}etection framework called MLED. In MLED, we utilize LLMs to extract external knowledge from textual information to enhance graph fraud detection methods. To integrate LLMs with graph structure information and enhance the ability to distinguish fraudsters, we design a multi-level LLM enhanced framework including type-level enhancer and relation-level enhancer. One is to enhance the difference between the fraudsters and the benign entities, the other is to enhance the importance of the fraudsters in different relations. The experiments on four real-world datasets show that MLED achieves state-of-the-art performance in graph fraud detection as a generalized framework that can be applied to existing methods.
- Abstract(参考訳): グラフ不正検出は、グラフニューラルネットワーク(GNN)がマルチモーダルデータ内の複雑な関係をモデル化するのに有効であることが証明されたため、大きな注目を集めている。
しかし、既存のグラフ不正検出手法では、通常、事前に処理されたノード埋め込みと事前定義されたグラフ構造を用いて不正行為を明らかにする。
大規模言語モデル (LLMs) は, テキスト情報処理において強力な能力を発揮するが, グラフ構造による文書埋め込みのマルチモーダルな融合は依然として大きな課題である。
本稿では,MLED と呼ばれるグラフフラッド \textbf{E}nhanced Graph Fraud \textbf{D}etection framework を提案する。
MLEDでは、LLMを用いてテキスト情報から外部知識を抽出し、グラフ不正検出方法を強化する。
LLMをグラフ構造情報と統合し、不正者を識別する能力を高めるため、タイプレベルエンハンサーと関係レベルエンハンサーを含む多レベルLLM拡張フレームワークを設計する。
一つは、詐欺師と良心的な団体の違いを強化することであり、もう一つは、異なる関係における詐欺師の重要性を高めることである。
4つの実世界のデータセットに対する実験により、MLEDはグラフ不正検出における最先端のパフォーマンスを、既存の手法に適用可能な一般化されたフレームワークとして達成することを示した。
関連論文リスト
- All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Multi-View Empowered Structural Graph Wordification for Language Models [12.22063024099311]
本稿では,LLM-graphアライメントのためのエンドツーエンドのモダリティアライメントフレームワークについて紹介する。
提案手法は LLM とのトークンレベルアライメントを容易にするために設計されており,グラフの内在的' を理解可能な自然言語に効果的に翻訳することができる。
我々のフレームワークは、LLMとGNN間のトークンレベルのアライメントを実現するための、有望な試みである、ある視覚的解釈可能性、効率、堅牢性を保証する。
論文 参考訳(メタデータ) (2024-06-19T16:43:56Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Can we Soft Prompt LLMs for Graph Learning Tasks? [22.286189757942054]
GraphPrompterは、グラフ情報とLLM(Large Language Models)をソフトプロンプトで整合させるように設計されたフレームワークである。
このフレームワークは、グラフ関連タスクの予測子としてLLMの実質的な機能を明らかにしている。
論文 参考訳(メタデータ) (2024-02-15T23:09:42Z) - Which Modality should I use -- Text, Motif, or Image? : Understanding Graphs with Large Language Models [14.251972223585765]
本稿では,テキスト,画像,モチーフなどの多様性を持つグラフを符号化する新たな手法を提案する。
また、グラフ構造解析において、LLM(Large Language Models)を評価するための新しいベンチマークであるGraphTMIも提示されている。
論文 参考訳(メタデータ) (2023-11-16T12:45:41Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。