論文の概要: Sampling methods for efficient training of graph convolutional networks:
A survey
- arxiv url: http://arxiv.org/abs/2103.05872v1
- Date: Wed, 10 Mar 2021 05:07:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 14:49:48.720434
- Title: Sampling methods for efficient training of graph convolutional networks:
A survey
- Title(参考訳): グラフ畳み込みネットワークの効率的なトレーニングのためのサンプリング方法:調査
- Authors: Xin Liu, Mingyu Yan, Lei Deng, Guoqi Li, Xiaochun Ye, Dongrui Fan
- Abstract要約: グラフ畳み込みネットワーク(GCN)は様々な研究分野から注目されている。
GCNは他の方法と比較してうまく機能しますが、まだ課題に直面しています。
- 参考スコア(独自算出の注目度): 15.008444079244065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have received significant attention from
various research fields due to the excellent performance in learning graph
representations. Although GCN performs well compared with other methods, it
still faces challenges. Training a GCN model for large-scale graphs in a
conventional way requires high computation and memory costs. Therefore,
motivated by an urgent need in terms of efficiency and scalability in training
GCN, sampling methods are proposed and achieve a significant effect. In this
paper, we categorize sampling methods based on the sampling mechanisms and
provide a comprehensive survey of sampling methods for efficient training of
GCN. To highlight the characteristics and differences of sampling methods, we
present a detailed comparison within each category and further give an overall
comparative analysis for the sampling methods in all categories. Finally, we
discuss some challenges and future research directions of the sampling methods.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は,グラフ表現の学習性能が優れており,様々な研究分野から注目されている。
GCNは他の方法と比較してうまく機能しますが、まだ課題に直面しています。
大規模グラフに対するGCNモデルを従来の方法でトレーニングするには、高い計算とメモリコストが必要となる。
したがって,GCNの学習における効率性やスケーラビリティの面での急激なニーズにより,サンプリング手法が提案され,大きな効果が得られた。
本稿では,サンプリング機構に基づくサンプリング手法を分類し,gcnの効率的なトレーニングのためのサンプリング手法の包括的調査を行う。
サンプリング法の特徴と相違を強調するために,各カテゴリにおける詳細な比較を行い,さらに,各カテゴリにおけるサンプリング法の総合比較分析を行う。
最後に,サンプリング手法の課題と今後の研究方向性について論じる。
関連論文リスト
- Adaptive teachers for amortized samplers [76.88721198565861]
償却推論(英: Amortized inference)とは、ニューラルネットワークなどのパラメトリックモデルをトレーニングし、正確なサンプリングが可能な所定の非正規化密度で分布を近似するタスクである。
オフ・ポリティクスのRLトレーニングは多様でハイ・リワードな候補の発見を促進するが、既存の手法は依然として効率的な探索の課題に直面している。
そこで本研究では,高次領域の優先順位付けにより,初等補正標本作成者(学生)の指導を指導する適応学習分布(教師)を提案する。
論文 参考訳(メタデータ) (2024-10-02T11:33:13Z) - SGM-PINN: Sampling Graphical Models for Faster Training of Physics-Informed Neural Networks [4.262342157729123]
SGM-PINNは物理情報ニューラルネットワーク(PINN)のトレーニング効率を向上させるグラフベースの重要度サンプリングフレームワークである
提案手法の利点を実証し,従来の最先端サンプリング手法と比較して3倍の収束性を実現した。
論文 参考訳(メタデータ) (2024-07-10T04:31:50Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Importance Sampling for Stochastic Gradient Descent in Deep Neural
Networks [0.0]
ディープニューラルネットワークのトレーニングのための重要サンプリングが広く研究されている。
本稿では,本研究領域に固有の課題について概説する。
本稿では,所定のサンプリング方式の品質を評価するための指標を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:35:11Z) - Sampling Through the Lens of Sequential Decision Making [9.101505546901999]
我々はアダプティブ・サンプル・ウィズ・リワード(ASR)と呼ばれる報酬誘導型サンプリング戦略を提案する。
提案手法は,サンプリング過程を最適に調整し,最適性能を実現する。
情報検索とクラスタリングの実証的な結果は、異なるデータセット間でのASRのスーパーブパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-08-17T04:01:29Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - Calibrate and Debias Layer-wise Sampling for Graph Convolutional
Networks [39.56471534442315]
本稿では,行列近似の観点からアプローチを再考する。
本稿では,サンプリング確率と効率的なデバイアスアルゴリズムを構築するための新しい原理を提案する。
改良は、推定分散の広範囲な解析と、一般的なベンチマークの実験によって実証される。
論文 参考訳(メタデータ) (2022-06-01T15:52:06Z) - GNNSampler: Bridging the Gap between Sampling Algorithms of GNN and
Hardware [8.15489210461058]
GNNSamplerと呼ばれるメインストリームサンプリングアルゴリズムのための統一型プログラミングモデルを提案する。
我々は,サンプリング中の不規則なメモリアクセスを軽減するために,実世界のデータセットでノードとその隣人のデータの局所性を探索する。
提案手法は主流サンプリングアルゴリズムに普遍的であり,GNNのトレーニング時間を短縮する。
論文 参考訳(メタデータ) (2021-08-26T04:13:52Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - Subset Sampling For Progressive Neural Network Learning [106.12874293597754]
プログレッシブニューラルネットワーク学習は、ネットワークのトポロジを漸進的に構築し、トレーニングデータに基づいてパラメータを最適化するアルゴリズムのクラスである。
段階的なトレーニングステップ毎にトレーニングデータのサブセットを活用することで,このプロセスの高速化を提案する。
オブジェクト,シーン,顔の認識における実験結果から,提案手法が最適化手順を大幅に高速化することを示す。
論文 参考訳(メタデータ) (2020-02-17T18:57:33Z) - Informative Sample Mining Network for Multi-Domain Image-to-Image
Translation [101.01649070998532]
本稿では,画像から画像への翻訳作業において,サンプル選択戦略の改善が有効であることを示す。
本稿では,サンプルの硬さを抑えつつ,サンプルの硬さを抑えるための新しい多段階サンプルトレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-01-05T05:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。