論文の概要: Graph Neural Network with One-side Edge Sampling for Fraud Detection
- arxiv url: http://arxiv.org/abs/2601.06800v1
- Date: Sun, 11 Jan 2026 07:59:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.99917
- Title: Graph Neural Network with One-side Edge Sampling for Fraud Detection
- Title(参考訳): 片側エッジサンプリングによるフラッド検出のためのグラフニューラルネットワーク
- Authors: Hoang Hiep Trieu,
- Abstract要約: ワンサイドエッジサンプリング(OES)はトレーニング期間を短縮し、過度なスムーシングと過度なフィットの効果を低減できる可能性がある。
OESは浅いアーキテクチャと深いアーキテクチャの両方において、バックボーンモデルよりも経験的に優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Financial fraud is always a major problem in the field of finance, as it can cause significant consequences. As a result, many approaches have been designed to detect it, and lately Graph Neural Networks (GNNs) have been demonstrated as a competent candidate. However, when trained with a large amount of data, they are slow and computationally demanding. In addition, GNNs may need a deep architecture to detect complex fraud patterns, but doing so may make them suffer from problems such as over-fitting or over-smoothing. Over-fitting leads to reduced generalisation of the model on unseen data, while over-smoothing causes all nodes' features to converge to a fixed point due to excessive aggregation of information from neighbouring nodes. In this research, I propose an approach called One-Side Edge Sampling (OES) that can potentially reduce training duration as well as the effects of over-smoothing and over-fitting. The approach leverages predictive confidence in an edge classification task to sample edges from the input graph during a certain number of epochs. To explain why OES can alleviate over-smoothing, I perform a theoretical analysis of the proposed approach. In addition, to validate the effect of OES, I conduct experiments using different GNNs on two datasets. The results show that OES can empirically outperform backbone models in both shallow and deep architectures while also reducing training time.
- Abstract(参考訳): 金融詐欺は常に金融分野で大きな問題であり、重大な結果をもたらす可能性がある。
その結果, グラフニューラルネットワーク (GNN) を有能な候補とする手法が多数提案されている。
しかし、大量のデータで訓練すると、それらは遅く、計算的に要求される。
加えて、GNNは複雑な不正パターンを検出するために深いアーキテクチャを必要とするかもしれないが、そうすることで過度な適合や過度なスムーシングといった問題に悩まされる可能性がある。
オーバーフィッティングは、未確認データのモデルの一般化を減らし、一方、過剰スムースティングは、近隣のノードからの情報の過剰な集約により、すべてのノードの特徴が固定点に収束する。
本研究では,OES(One-Side Edge Smpling)と呼ばれるアプローチを提案する。
このアプローチは、エッジ分類タスクにおける予測信頼を利用して、特定のエポック数の間、入力グラフからエッジをサンプリングする。
OESが過度な平滑化を緩和できる理由を説明するため,提案手法の理論的解析を行った。
さらに、OESの効果を検証するために、2つのデータセットに対して異なるGNNを用いて実験を行う。
その結果、OESは浅いアーキテクチャと深いアーキテクチャの両方においてバックボーンモデルよりも経験的に優れ、トレーニング時間を短縮できることがわかった。
関連論文リスト
- Effects of Dropout on Performance in Long-range Graph Learning Tasks [8.524684315458243]
MPNNはグラフニューラルネットワーク(Graph Neural Networks)で、ローカルな地区を通じてグラフ全体に情報を伝達する。
オーバースムーシングとオーバースキャッシングは、MPNNにとって2つの重要な課題である。
我々は、エッジドロップによって失われた情報の比率を明示的に制御するDropEdgeの感度対応版であるDropSensを紹介する。
論文 参考訳(メタデータ) (2025-02-11T08:36:38Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Robust Graph Neural Network based on Graph Denoising [10.564653734218755]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータセットを扱う学習問題に対して、悪名高い代替手段として登場した。
本研究は,観測トポロジにおける摂動の存在を明示的に考慮した,GNNの堅牢な実装を提案する。
論文 参考訳(メタデータ) (2023-12-11T17:43:57Z) - The Devil is in the Conflict: Disentangled Information Graph Neural
Networks for Fraud Detection [17.254383007779616]
性能劣化は主にトポロジと属性の矛盾に起因すると我々は主張する。
注意機構を用いて2つの視点を適応的に融合する簡易かつ効果的な手法を提案する。
我々のモデルは、実世界の不正検出データセットで最先端のベースラインを大幅に上回ることができる。
論文 参考訳(メタデータ) (2022-10-22T08:21:49Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - How effective are Graph Neural Networks in Fraud Detection for Network
Data? [0.0]
グラフベースニューラルネットワーク(GNN)は、ノード(およびグラフ)の表現を学習するために作成された最近のモデルである。
金融詐欺は社会経済的関連性や、正の(詐欺)と負の(定期的な)取引(英語版)の間の極端な不均衡など、特定の課題を提示することで際立っている。
この2つの課題を考慮し,既存のネットワーク不正検出手法の評価実験を行った。
論文 参考訳(メタデータ) (2021-05-30T15:17:13Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。