論文の概要: LMAE4Eth: Generalizable and Robust Ethereum Fraud Detection by Exploring Transaction Semantics and Masked Graph Embedding
- arxiv url: http://arxiv.org/abs/2509.03939v1
- Date: Thu, 04 Sep 2025 06:56:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.079279
- Title: LMAE4Eth: Generalizable and Robust Ethereum Fraud Detection by Exploring Transaction Semantics and Masked Graph Embedding
- Title(参考訳): LMAE4Eth:トランザクションセマンティクスとマスケグラフ埋め込みの探索による一般化可能かつロバストなEthereumフラッド検出
- Authors: Yifan Jia, Yanbin Wang, Jianguo Sun, Ye Tian, Peng Qian,
- Abstract要約: LMAE4Ethは、トランザクションセマンティクス、マスキンググラフの埋め込み、専門家の知識を融合する多視点学習フレームワークである。
まず、文脈に依存しない数値トランザクションレコードを結合型言語表現に変換するトランザクション型コントラスト言語モデル(TxCLM)を提案する。
次に、生成自己教師付き学習を用いたマスク付きアカウントグラフオートエンコーダ(MAGAE)を提案する。
- 参考スコア(独自算出の注目度): 10.923718297125754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current Ethereum fraud detection methods rely on context-independent, numerical transaction sequences, failing to capture semantic of account transactions. Furthermore, the pervasive homogeneity in Ethereum transaction records renders it challenging to learn discriminative account embeddings. Moreover, current self-supervised graph learning methods primarily learn node representations through graph reconstruction, resulting in suboptimal performance for node-level tasks like fraud account detection, while these methods also encounter scalability challenges. To tackle these challenges, we propose LMAE4Eth, a multi-view learning framework that fuses transaction semantics, masked graph embedding, and expert knowledge. We first propose a transaction-token contrastive language model (TxCLM) that transforms context-independent numerical transaction records into logically cohesive linguistic representations. To clearly characterize the semantic differences between accounts, we also use a token-aware contrastive learning pre-training objective together with the masked transaction model pre-training objective, learns high-expressive account representations. We then propose a masked account graph autoencoder (MAGAE) using generative self-supervised learning, which achieves superior node-level account detection by focusing on reconstructing account node features. To enable MAGAE to scale for large-scale training, we propose to integrate layer-neighbor sampling into the graph, which reduces the number of sampled vertices by several times without compromising training quality. Finally, using a cross-attention fusion network, we unify the embeddings of TxCLM and MAGAE to leverage the benefits of both. We evaluate our method against 21 baseline approaches on three datasets. Experimental results show that our method outperforms the best baseline by over 10% in F1-score on two of the datasets.
- Abstract(参考訳): 現在のEthereum詐欺検出方法は、コンテキストに依存しない数値トランザクションシーケンスに依存しており、アカウントトランザクションのセマンティクスをキャプチャできない。
さらに、Ethereumトランザクションレコードの広範にわたる均一性は、差別的なアカウントの埋め込みを学習することを困難にしている。
さらに,従来の自己教師付きグラフ学習手法では,グラフ再構成によってノード表現を学習し,不正アカウント検出などのノードレベルのタスクに最適性能を与える一方で,拡張性にも直面する。
これらの課題に対処するために,トランザクションセマンティクス,マスグラフ埋め込み,エキスパート知識を融合した多視点学習フレームワークLMAE4Ethを提案する。
まず、文脈に依存しない数値的なトランザクションレコードを論理的に結合的な言語表現に変換するトランザクション型コントラスト言語モデル(TxCLM)を提案する。
アカウント間のセマンティックな差異を明確化するために、トークン対応のコントラスト学習事前学習目的とマスク付きトランザクションモデル事前学習目標を併用し、高表現性アカウント表現を学習する。
次に、生成自己教師付き学習を用いたマスク付きアカウントグラフオートエンコーダ(MAGAE)を提案し、アカウントノードの特徴の再構築に焦点をあてて、優れたノードレベルのアカウント検出を実現する。
MAGAEを大規模トレーニングに活用するために,グラフに隣接層サンプリングを統合することで,学習品質を損なうことなく,サンプル頂点数を数倍に削減する手法を提案する。
最後に,TxCLMとMAGAEの埋め込みを相互接続型核融合ネットワークで統合し,両者の利点を利用する。
3つのデータセットに対する21のベースラインアプローチに対して,本手法の評価を行った。
実験の結果,本手法は2つのデータセットのF1スコアにおいて,最高のベースラインを10%以上上回る性能を示した。
関連論文リスト
- KGBERT4Eth: A Feature-Complete Transformer Powered by Knowledge Graph for Multi-Task Ethereum Fraud Detection [14.186303004456205]
KGBERT4Ethは、トランザクションセマンティックスとトランザクション知識グラフを組み合わせた、機能の完全な事前トレーニングエンコーダである。
両コンポーネントの事前学習目標を最適化して,これらの補完機能を融合し,機能完備な埋め込みを生成する。
KGBERT4Ethは、フィッシングアカウントの検出と匿名化タスクの両方において、最先端のベースラインを大幅に上回る。
論文 参考訳(メタデータ) (2025-09-04T03:38:11Z) - Segment Concealed Objects with Incomplete Supervision [63.637733655439334]
不完全なスーパービジョン・コンセサイテッド・オブジェクト(ISCOS)は、周囲の環境にシームレスにブレンドするオブジェクトを分割する。
このタスクは、不完全な注釈付きトレーニングデータによって提供される限られた監督のため、非常に難しいままである。
本稿では,これらの課題に対処するためのISCOSの統一手法について紹介する。
論文 参考訳(メタデータ) (2025-06-10T16:25:15Z) - Predict, Cluster, Refine: A Joint Embedding Predictive Self-Supervised Framework for Graph Representation Learning [0.0]
グラフ表現学習は、ノード分類やリンク予測といったタスクの基盤として登場した。
現在の自己教師付き学習(SSL)手法は、計算の非効率性、対照的な目的への依存、表現の崩壊といった課題に直面している。
本稿では,意味情報と構造情報を保存しながら,対照的な目的と負のサンプリングを排除したグラフSSLのための新しい結合埋め込み予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-02T07:42:45Z) - Ethereum Fraud Detection via Joint Transaction Language Model and Graph Representation Learning [6.378807038086552]
現在の不正検出方法は、トランザクション内の意味情報や類似性パターンを考慮できない。
本稿では,トランザクション言語モデルとグラフベースの手法を組み合わせたTLMG4Ethを提案する。
論文 参考訳(メタデータ) (2024-09-09T07:13:44Z) - Semantic Equitable Clustering: A Simple and Effective Strategy for Clustering Vision Tokens [57.37893387775829]
我々はSemantic Equitable Clustering(SEC)という,高速かつバランスの取れたクラスタリング手法を導入する。
SECは、グローバルなセマンティックな関連性に基づいてトークンを効率的かつ直接的な方法でクラスタ化する。
視覚言語コネクタとして機能する汎用視覚バックボーンであるSECViTを提案する。
論文 参考訳(メタデータ) (2024-05-22T04:49:00Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Transaction Fraud Detection via an Adaptive Graph Neural Network [64.9428588496749]
本稿では,アダプティブサンプリングとアグリゲーションに基づくグラフニューラルネットワーク(ASA-GNN)を提案する。
ノイズの多いノードをフィルタリングし、不正なノードを補うために、隣のサンプリング戦略を実行する。
3つのファイナンシャルデータセットの実験により,提案手法のASA-GNNは最先端のデータセットよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-07-11T07:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。