論文の概要: Improved Aggregating and Accelerating Training Methods for Spatial Graph
Neural Networks on Fraud Detection
- arxiv url: http://arxiv.org/abs/2202.06580v1
- Date: Mon, 14 Feb 2022 09:51:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 14:50:19.020442
- Title: Improved Aggregating and Accelerating Training Methods for Spatial Graph
Neural Networks on Fraud Detection
- Title(参考訳): 不正検出のための空間グラフニューラルネットワークの集約・高速化訓練手法の改善
- Authors: Yufan Zeng, Jiashan Tang
- Abstract要約: 本稿では,CARE-GNNをResidual Layered CARE-GNN(RLC-GNN)と呼ばれるディープモデルに拡張する改良されたディープアーキテクチャを提案する。
RLC-GNNの3つの課題は、近隣情報の利用が制限に達すること、訓練の難しさ、およびノードの特徴や外部パターンに関する包括的な考慮の欠如である。
YelpとAmazonのデータセットで実験が行われる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been widely applied to numerous fields. A
recent work which combines layered structure and residual connection proposes
an improved deep architecture to extend CAmouflage-REsistant GNN (CARE-GNN) to
deep models named as Residual Layered CARE-GNN (RLC-GNN), which forms
self-correcting and incremental learning mechanism, and achieves significant
performance improvements on fraud detection task. However, we spot three issues
of RLC-GNN, which are the usage of neighboring information reaching limitation,
the training difficulty which is inherent problem to deep models and lack of
comprehensive consideration about node features and external patterns. In this
work, we propose three approaches to solve those three problems respectively.
First, we suggest conducting similarity measure via cosine distance to take
both local features and external patterns into consideration. Then, we combine
the similarity measure module and the idea of adjacency-wise normalization with
node-wise and batch-wise normalization and then propound partial neighborhood
normalization methods to overcome the training difficulty while mitigating the
impact of too much noise caused by high-density of graph. Finally, we put
forward intermediate information supplement to solve the information
limitation. Experiments are conducted on Yelp and Amazon datasets. And the
results show that our proposed methods effectively solve the three problems.
After applying the three methods, we achieve 4.81%, 6.62% and 6.81%
improvements in the metrics of recall, AUC and Macro-F1 respectively on the
Yelp dataset. And we obtain 1.65% and 0.29% improvements in recall and AUC
respectively on the Amazon datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は多くの分野に広く応用されている。
階層構造と残差接続を組み合わせた最近の研究は、自己修正・漸進学習機構を形成するResidual Layered CARE-GNN(RLC-GNN)と呼ばれるディープモデルにCARE-GNN(CAmouflage-Resistant GNN)を拡張し、不正検出タスクにおいて大幅な性能改善を実現するための改良されたディープアーキテクチャを提案する。
しかし, RLC-GNNの3つの課題は, 限界に達する隣り合う情報の利用, 深層モデル固有の問題である訓練困難, ノードの特徴や外部パターンに関する包括的な考察の欠如である。
本研究では,これら3つの問題をそれぞれ解くための3つのアプローチを提案する。
まず,コサイン距離による類似度測定を行い,局所的特徴と外的パターンを考慮に入れることを提案する。
そして、類似度測定モジュールと隣接度正規化のアイデアをノードワイドおよびバッチワイド正規化と組み合わせて、グラフの高密度化による過度のノイズの影響を軽減しつつ、トレーニングの難しさを克服する部分近傍正規化手法を提案する。
最後に,情報制限を解決するために中間情報補完を行う。
YelpとAmazonのデータセットで実験が行われる。
その結果,提案手法は3つの問題を効果的に解くことができた。
この3つの手法を適用した結果,yelpデータセット上でそれぞれ4.81%,6.62%,6.81%の改善が得られた。
そして、Amazonデータセットでそれぞれ1.65%と0.29%の改善が得られた。
関連論文リスト
- Pruning Deep Convolutional Neural Network Using Conditional Mutual Information [10.302118493842647]
畳み込みニューラルネットワーク(CNN)は、画像分類タスクにおいて高い性能を達成するが、リソース制限ハードウェアへのデプロイは困難である。
本稿では,各層における最も情報性の高い特徴を識別し,選択的に保持するCNNに対して,構造化されたフィルタ解析手法を提案する。
論文 参考訳(メタデータ) (2024-11-27T18:23:59Z) - Rock Classification Based on Residual Networks [4.256045122451066]
岩盤分類の問題に対処するために,残差ニューラルネットワークを用いた2つのアプローチを提案する。
ResNet34に基づくカーネルサイズや正規化メソッド,コンポジションを変更することで,テストデータセット上での精度を70.1%向上する。
マルチヘッド・セルフ・アテンションを組み込んだBoTNetのようなバックボーンを使って、モデルの内部残余接続も利用しています。
これにより、モデルのパフォーマンスが向上し、テストデータセットで73.7%の精度が達成される。
論文 参考訳(メタデータ) (2024-02-19T04:45:15Z) - On the effectiveness of partial variance reduction in federated learning
with heterogeneous data [27.527995694042506]
クライアント間の最終分類層の多様性は、FedAvgアルゴリズムの性能を阻害することを示す。
そこで本研究では,最終層のみの分散還元によるモデル修正を提案する。
同様の通信コストや低い通信コストで既存のベンチマークを著しく上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-05T11:56:35Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - Enhanced Exploration in Neural Feature Selection for Deep Click-Through
Rate Prediction Models via Ensemble of Gating Layers [7.381829794276824]
神経機能選択(NFS)の目標は、最も説明力のある比較的小さな機能のサブセットを選択することである。
ゲーティングアプローチは、情報の少ない特徴をドロップするために、識別可能なバイナリゲートのセットを挿入する。
勾配に基づく解の探索能力を向上させるために,単純だが効果的なアンサンブル学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-07T04:37:05Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z) - Enhancing Geometric Factors in Model Learning and Inference for Object
Detection and Instance Segmentation [91.12575065731883]
境界ボックス回帰および非最大抑圧(NMS)における幾何学的要素の強化を目的とした完全IoU損失とクラスタNMSを提案する。
CIoU損失を用いたディープラーニングモデルのトレーニングは、広く採用されている$ell_n$-norm損失とIoUベースの損失と比較して、一貫性のあるAPとARの改善をもたらす。
クラスタ-NMSは、純粋なGPU実装のため非常に効率的であり、APとARの両方を改善するために幾何学的要素を組み込むことができる。
論文 参考訳(メタデータ) (2020-05-07T16:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。