論文の概要: Fraud Detection with Binding Global and Local Relational Interaction
- arxiv url: http://arxiv.org/abs/2402.17472v1
- Date: Tue, 27 Feb 2024 12:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 16:25:09.038587
- Title: Fraud Detection with Binding Global and Local Relational Interaction
- Title(参考訳): グローバルおよびローカルリレーショナルインタラクションによる不正検出
- Authors: Haolin Li, Shuyang Jiang, Lifeng Zhang, Siyuan Du, Guangnan Ye,
Hongfeng Chai
- Abstract要約: 本稿では,transFormer(RAGFormer)を用いたRelation-Aware GNNという新しいフレームワークを提案する。
RAGFormerは、ローカル機能とグローバル機能を同時にターゲットノードに埋め込む。
2つの人気のあるパブリックデータセットと産業データセットの実験は、RAGFormerが最先端のパフォーマンスを達成することを実証している。
- 参考スコア(独自算出の注目度): 8.530898223158843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network has been proved to be effective for fraud detection for
its capability to encode node interaction and aggregate features in a holistic
view. Recently, Transformer network with great sequence encoding ability, has
also outperformed other GNN-based methods in literatures. However, both
GNN-based and Transformer-based networks only encode one perspective of the
whole graph, while GNN encodes global features and Transformer network encodes
local ones. Furthermore, previous works ignored encoding global interaction
features of the heterogeneous graph with separate networks, thus leading to
suboptimal performance. In this work, we present a novel framework called
Relation-Aware GNN with transFormer (RAGFormer) which simultaneously embeds
local and global features into a target node. The simple yet effective network
applies a modified GAGA module where each transformer layer is followed by a
cross-relation aggregation layer, to encode local embeddings and node
interactions across different relations. Apart from the Transformer-based
network, we further introduce a Relation-Aware GNN module to learn global
embeddings, which is later merged into the local embeddings by an attention
fusion module and a skip connection. Extensive experiments on two popular
public datasets and an industrial dataset demonstrate that RAGFormer achieves
the state-of-the-art performance. Substantial analysis experiments validate the
effectiveness of each submodule of RAGFormer and its high efficiency in
utilizing small-scale data and low hyper-parameter sensitivity.
- Abstract(参考訳): グラフニューラルネットワークは,ノード間の相互作用を符号化し,総合的な視点で特徴を集約することで,不正検出に有効であることが証明されている。
近年,配列符号化能力の優れたTransformerネットワークは,文学における他のGNN手法よりも優れている。
しかし、GNNベースのネットワークとTransformerベースのネットワークはグラフ全体の一視点のみをエンコードし、GNNはグローバル機能をエンコードし、Transformerネットワークはローカルをエンコードする。
さらに、以前の研究では、異種グラフのグローバルインタラクション特徴を別々のネットワークでエンコーディングすることを無視していたため、サブオプティマイズ性能が向上した。
本稿では,対象ノードに局所的特徴と大域的特徴を同時に組み込む,relation-aware gnn with transformer (ragformer) という新しいフレームワークを提案する。
単純かつ効果的なネットワークは、各トランスフォーマー層に相互結合アグリゲーション層が続く修正gagaモジュールを適用し、異なる関係をまたいだ局所埋め込みとノード間相互作用を符号化する。
トランスベースネットワークとは別に,グローバル埋め込みを学習するための関係認識型gnnモジュールも導入し,後にアテンション融合モジュールとスキップ接続によってローカル埋め込みにマージする。
2つの人気のあるパブリックデータセットと産業データセットに関する広範な実験は、ragformerが最先端のパフォーマンスを達成していることを示している。
実質的な分析実験は、ragformerの各サブモジュールの有効性と、小規模データと低ハイパーパラメータ感度の活用におけるその高い効率を検証する。
関連論文リスト
- BLIS-Net: Classifying and Analyzing Signals on Graphs [20.345611294709244]
グラフニューラルネットワーク(GNN)は、ノード分類やグラフ分類といったタスクのための強力なツールとして登場した。
我々は以前に導入された幾何散乱変換に基づいて構築された新しいGNNであるBLIS-Net(Bi-Lipschitz Scattering Net)を紹介する。
BLIS-Netは,交通流とfMRIデータに基づいて,合成データと実世界のデータの両方において優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-10-26T17:03:14Z) - TransGNN: Harnessing the Collaborative Power of Transformers and Graph
Neural Networks for Recommender Systems [46.508519949169]
Graph Neural Networks(GNN)は、ユーザとイテムの相互作用グラフのモデリングを通じて、協調フィルタリング(CF)のための有望なソリューションとして登場した。
本稿では,Transformer層とGNN層を相互に拡張するために交互に統合する新しいモデルであるTransGNNを提案する。
論文 参考訳(メタデータ) (2023-08-28T07:03:08Z) - LSGNN: Towards General Graph Neural Network in Node Classification by
Local Similarity [59.41119013018377]
本稿では,ローカル類似性(LocalSim)を用いて,プラグイン・アンド・プレイモジュールとしても機能するノードレベルの重み付き融合を学習する。
そこで本研究では,より情報性の高いマルチホップ情報を抽出するための,新規かつ効率的な初期残留差分接続(IRDC)を提案する。
提案手法,すなわちローカル類似グラフニューラルネットワーク(LSGNN)は,ホモ親和性グラフとヘテロ親和性グラフの両方において,同等あるいは優れた最先端性能を提供できる。
論文 参考訳(メタデータ) (2023-05-07T09:06:11Z) - DLGSANet: Lightweight Dynamic Local and Global Self-Attention Networks
for Image Super-Resolution [83.47467223117361]
画像の超解像化に有効な軽量な動的局所・大域自己アテンションネットワーク(DLGSANet)を提案する。
トランスフォーマーのネットワーク設計により,ローカル特徴を効率的に抽出するシンプルなマルチヘッド動的自己アテンション(MHDLSA)モジュールを開発した。
この問題を解決するために,最も有用な類似値を選択するために,スパースグローバル自己アテンション(SparseGSA)モジュールを開発した。
論文 参考訳(メタデータ) (2023-01-05T12:06:47Z) - Graph Ordering Attention Networks [22.468776559433614]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに関わる多くの問題でうまく使われている。
近隣ノード間のインタラクションをキャプチャする新しいGNNコンポーネントであるグラフ順序付け注意層(GOAT)を導入する。
GOATレイヤは、複雑な情報をキャプチャするグラフメトリクスのモデリングにおけるパフォーマンスの向上を示す。
論文 参考訳(メタデータ) (2022-04-11T18:13:19Z) - Meta-Aggregator: Learning to Aggregate for 1-bit Graph Neural Networks [127.32203532517953]
我々は,GNNパラメータとグラフ特徴をバイナライズするバニラ1ビットフレームワークを開発した。
軽量なアーキテクチャにもかかわらず、我々はこのバニラフレームワークがグラフトポロジを区別するのに十分な差別力に悩まされていることを観察した。
この発見は、バニラ二項化GNNの表現力を向上させるためにメタアグリゲータを考案する動機となる。
論文 参考訳(メタデータ) (2021-09-27T08:50:37Z) - Edge-augmented Graph Transformers: Global Self-attention is Enough for
Graphs [24.796242917673755]
本稿では,変圧器の残差エッジチャネルに対する簡易かつ強力な拡張を提案する。
結果として得られるフレームワークは、Edge-augmented Graph Transformer (EGT)と呼ばれ、ノード情報だけでなく、構造情報を直接受け入れ、処理し、出力することができる。
我々のフレームワークはグローバルノードの特徴集約に依存しており、グラフ畳み込みネットワーク(GCN)よりも優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-08-07T02:18:11Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。