論文の概要: DAFOS: Dynamic Adaptive Fanout Optimization Sampler
- arxiv url: http://arxiv.org/abs/2507.08845v1
- Date: Tue, 08 Jul 2025 12:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:21.556272
- Title: DAFOS: Dynamic Adaptive Fanout Optimization Sampler
- Title(参考訳): DAFOS:動的適応ファンアウト最適化サンプリング
- Authors: Irfan Ullah, Young-Koo Lee,
- Abstract要約: 本稿では,モデルの性能に基づいてファンアウトを動的に調整し,トレーニング中に重要なノードを優先する手法を提案する。
3つのベンチマークデータセット(ogbnarxiv、Reddit、ogbn-products)で実施された実験は、我々のアプローチがトレーニングのスピードと精度を大幅に改善することを示した。
- 参考スコア(独自算出の注目度): 3.0232957374216953
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) are becoming an essential tool for learning from graph-structured data, however uniform neighbor sampling and static fanout settings frequently limit GNNs' scalability and efficiency. In this paper, we propose the Dynamic Adaptive Fanout Optimization Sampler (DAFOS), a novel approach that dynamically adjusts the fanout based on model performance and prioritizes important nodes during training. Our approach leverages node scoring based on node degree to focus computational resources on structurally important nodes, incrementing the fanout as the model training progresses. DAFOS also integrates an early stopping mechanism to halt training when performance gains diminish. Experiments conducted on three benchmark datasets, ogbnarxiv, Reddit, and ogbn-products, demonstrate that our approach significantly improves training speed and accuracy compared to a state-of-the-art approach. DAFOS achieves a 3.57x speedup on the ogbn-arxiv dataset and a 12.6x speedup on the Reddit dataset while improving the F1 score from 68.5% to 71.21% on ogbn-arxiv and from 73.78% to 76.88% on the ogbn-products dataset, respectively. These results highlight the potential of DAFOS as an efficient and scalable solution for large-scale GNN training.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する上で不可欠なツールとなっているが、均一な近隣サンプリングと静的ファンアウト設定により、GNNのスケーラビリティと効率が制限されることが多い。
本稿では、モデル性能に基づいてファンアウトを動的に調整し、トレーニング中に重要なノードを優先する新しいアプローチである動的適応ファンアウト最適化サンプリング(DAFOS)を提案する。
提案手法では,ノード次数に基づくノードスコアリングを利用して,構造的に重要なノードに計算資源を集中させ,モデルの学習が進むにつれてファンアウトを増大させる。
DAFOSはまた、パフォーマンスが低下するとトレーニングを停止する早期停止機構も統合している。
3つのベンチマークデータセット(ogbnarxiv, Reddit, ogbn-products)で行った実験により、我々のアプローチは最先端のアプローチと比較してトレーニングのスピードと精度を大幅に改善することを示した。
DAFOSは、ogbn-arxivデータセットで3.57倍、Redditデータセットで12.6倍、ogbn-arxivで68.5%から71.21%、ogbn-productsデータセットで73.78%から76.88%に改善した。
これらの結果は、大規模GNNトレーニングの効率的でスケーラブルなソリューションとして、DAFOSの可能性を浮き彫りにしている。
関連論文リスト
- Dynamic Noise Preference Optimization for LLM Self-Improvement via Synthetic Data [51.62162460809116]
我々は、イテレーション間で一貫した改善を保証するために、動的ノイズ優先最適化(DNPO)を導入します。
Zephyr-7Bでの実験では、DNPOは既存の手法を一貫して上回り、平均性能は2.6%向上した。
DNPOは、GPT-4評価のベースラインに比べて29.4%のウィンロス率差で、モデル生成データの品質が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-02-08T01:20:09Z) - MeshMask: Physics-Based Simulations with Masked Graph Neural Networks [0.0]
本稿では,計算流体力学(CFD)問題に適用したグラフニューラルネットワーク(GNN)のための新しいマスク付き事前学習手法を提案する。
事前学習中に入力メッシュノードの40%をランダムにマスキングすることにより、複雑な流体力学の堅牢な表現を学習せざるを得ない。
提案手法は,メッシュ当たり25万ノード以上の3次元頭蓋内動脈瘤シミュレーションの挑戦的データセットを含む,7つのCFDデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2025-01-15T11:34:56Z) - Training Graph Neural Networks Using Non-Robust Samples [2.1937382384136637]
グラフニューラルネットワーク(GNN)は、構造化されたデータを処理するための、非常に効果的なニューラルネットワークである。
GNNは、データポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して、特徴表現を最適化する。
本稿では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-19T11:10:48Z) - A Data-Driven Approach to Dataflow-Aware Online Scheduling for Graph Neural Network Inference [3.734578883171713]
GNN推論におけるデータフローを考慮した遅延予測のためのデータ駆動フレームワークを提案する。
我々の回帰器は、与えられたグラフに対して最大91.28%の精度で最適なデータフローを予測でき、平均絶対パーセンテージ誤差(MAPE)は3.78%である。
本稿では、これらの回帰器を用いてスケジューリング決定を強化するオンラインスケジューリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-25T12:38:59Z) - FlowTS: Time Series Generation via Rectified Flow [67.41208519939626]
FlowTSは、確率空間における直線輸送を伴う整流フローを利用するODEベースのモデルである。
非条件設定では、FlowTSは最先端のパフォーマンスを達成し、コンテキストFIDスコアはStockとETThデータセットで0.019と0.011である。
条件設定では、太陽予測において優れた性能を達成している。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - GDeR: Safeguarding Efficiency, Balancing, and Robustness via Prototypical Graph Pruning [44.401418612374286]
トレーニング可能なプロトタイプを用いて,プロセス中のトレーニングを更新するための新しいソフトプルーニング手法であるGDeRを導入する。
GDeRは、トレーニングサンプルの30%削減で、完全なデータセットのパフォーマンスを達成または上回る。
また、不均衡なトレーニングやノイズの多いトレーニングシナリオにおいて、最先端のプルーニング手法よりも優れています。
論文 参考訳(メタデータ) (2024-10-17T16:56:01Z) - Federated Graph Learning with Adaptive Importance-based Sampling [22.601850857109024]
分散グラフデータセットを含むグラフ学習タスクのプライバシ保護には、フェデレーション学習(FL)ベースのGCN(FedGCN)トレーニングが必要である。
既存のグラフサンプリング強化FedGCNトレーニングアプローチは、グラフ構造情報や最適化のダイナミクスを無視し、高いばらつきと不正確なノード埋め込みをもたらす。
我々は、この制限に対処するために、FedAIS(Federated Adaptive Importance-based Smpling)を提案する。
FedAISはテスト精度を最大3.23%向上し、通信コストと計算コストを91.77%、85.59%削減した。
論文 参考訳(メタデータ) (2024-09-23T01:49:20Z) - Dynamic Adapter Meets Prompt Tuning: Parameter-Efficient Transfer Learning for Point Cloud Analysis [51.14136878142034]
ポイントクラウド分析は、事前訓練されたモデルのポイントクラウドの転送によって、優れたパフォーマンスを実現している。
モデル適応のための既存の方法は通常、高い計算コストに依存するため、非効率な全てのモデルパラメータを更新する。
本稿では,タスク性能とパラメータ効率のトレードオフを考慮した,ポイントクラウド解析のためのパラメータ効率変換学習を提案する。
論文 参考訳(メタデータ) (2024-03-03T08:25:04Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Pre-training via Denoising for Molecular Property Prediction [53.409242538744444]
本稿では,3次元分子構造の大規模データセットを平衡に利用した事前学習手法について述べる。
近年のノイズレギュラー化の進展に触発されて, 事前学習の目的は, 雑音の除去に基づくものである。
論文 参考訳(メタデータ) (2022-05-31T22:28:34Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。