論文の概要: ScatterSample: Diversified Label Sampling for Data Efficient Graph
Neural Network Learning
- arxiv url: http://arxiv.org/abs/2206.04255v1
- Date: Thu, 9 Jun 2022 04:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 15:05:40.882169
- Title: ScatterSample: Diversified Label Sampling for Data Efficient Graph
Neural Network Learning
- Title(参考訳): ScatterSample: データ効率の良いグラフニューラルネットワーク学習のための多様なラベルサンプリング
- Authors: Zhenwei Dai, Vasileios Ioannidis, Soji Adeshina, Zak Jost, Christos
Faloutsos, George Karypis
- Abstract要約: グラフニューラルネットワーク(GNN)トレーニングが高価であるいくつかのアプリケーションでは、新しいインスタンスのラベル付けが高価である。
データ効率のよいアクティブサンプリングフレームワークであるScatterSampleを開発し、アクティブな学習環境下でGNNを訓練する。
5つのデータセットに対する実験により、ScatterSampleは他のGNNのアクティブラーニングベースラインよりも大幅に優れていることが示された。
- 参考スコア(独自算出の注目度): 22.278779277115234
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: What target labels are most effective for graph neural network (GNN)
training? In some applications where GNNs excel-like drug design or fraud
detection, labeling new instances is expensive. We develop a data-efficient
active sampling framework, ScatterSample, to train GNNs under an active
learning setting. ScatterSample employs a sampling module termed
DiverseUncertainty to collect instances with large uncertainty from different
regions of the sample space for labeling. To ensure diversification of the
selected nodes, DiverseUncertainty clusters the high uncertainty nodes and
selects the representative nodes from each cluster. Our ScatterSample algorithm
is further supported by rigorous theoretical analysis demonstrating its
advantage compared to standard active sampling methods that aim to simply
maximize the uncertainty and not diversify the samples. In particular, we show
that ScatterSample is able to efficiently reduce the model uncertainty over the
whole sample space. Our experiments on five datasets show that ScatterSample
significantly outperforms the other GNN active learning baselines, specifically
it reduces the sampling cost by up to 50% while achieving the same test
accuracy.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)トレーニングに最も有効なターゲットラベルは何か?
GNNがドラッグデザインや不正検出に優れるアプリケーションでは、新しいインスタンスのラベル付けが高価である。
データ効率のよいアクティブサンプリングフレームワークであるScatterSampleを開発し、アクティブな学習環境下でGNNを訓練する。
ScatterSampleはDiverseUncertaintyと呼ばれるサンプリングモジュールを使用して、ラベル付けのためにサンプル空間の異なる領域から大きな不確実性のあるインスタンスを収集する。
選択されたノードの多様化を保証するため、DiverseUncertaintyは高い不確実性ノードをクラスタ化し、各クラスタから代表ノードを選択する。
本アルゴリズムは,不確かさを最大化し,サンプルの多様化を行なわない標準アクティブサンプリング法と比較して,厳密な理論解析によってさらに支持されている。
特に,ScatterSampleは,サンプル空間全体のモデル不確実性を効率的に低減できることを示す。
5つのデータセットを用いた実験の結果,sscattersampleは他のgnnアクティブラーニングベースラインを大きく上回り,サンプリングコストを最大50%削減し,同じテスト精度を達成していることがわかった。
関連論文リスト
- How Low Can You Go? Surfacing Prototypical In-Distribution Samples for Unsupervised Anomaly Detection [48.30283806131551]
非常に少ないトレーニングサンプルを持つUADが、トレーニングデータセット全体のトレーニングパフォーマンスにすでに一致している - そして、場合によっては、それを超えることもある、ということが、私たちは示しています。
そこで本研究では,UAD性能をさらに向上させるために,原型標本を確実に同定するための教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-12-06T15:30:47Z) - PCB-RandNet: Rethinking Random Sampling for LIDAR Semantic Segmentation
in Autonomous Driving Scene [15.516687293651795]
大規模LiDAR点雲のセマンティックセグメンテーションのための新しいポーラシリンダバランスランダムサンプリング法を提案する。
さらに,セグメント化性能を向上し,異なるサンプリング法下でのモデルのばらつきを低減するため,サンプリング一貫性損失が導入された。
提案手法は,SemanticKITTIベンチマークとSemanticPOSSベンチマークの両方で優れた性能を示し,それぞれ2.8%と4.0%の改善を実現している。
論文 参考訳(メタデータ) (2022-09-28T02:59:36Z) - Labeling-Free Comparison Testing of Deep Learning Models [28.47632100019289]
本研究では,ラベリング作業の限界を克服し,ランダム性をサンプリングするためのラベリングフリー比較試験手法を提案する。
提案手法は,データセットや分布シフトに関わらず,Spearmanの相関値とKendallの$tau$に対して,最大0.74および0.53のベースライン手法より優れている。
論文 参考訳(メタデータ) (2022-04-08T10:55:45Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。