論文の概要: DiffusAL: Coupling Active Learning with Graph Diffusion for
Label-Efficient Node Classification
- arxiv url: http://arxiv.org/abs/2308.00146v1
- Date: Mon, 31 Jul 2023 20:30:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 16:20:17.592316
- Title: DiffusAL: Coupling Active Learning with Graph Diffusion for
Label-Efficient Node Classification
- Title(参考訳): 差分:ラベル効率ノード分類のためのアクティブラーニングとグラフ拡散の結合
- Authors: Sandra Gilhuber, Julian Busch, Daniel Rotthues, Christian M. M. Frey
and Thomas Seidl
- Abstract要約: 我々はDiffusALと呼ばれる新しいグラフ学習手法を導入し、多様な設定において大きな堅牢性を示す。
取得とトレーニングの計算のほとんどは事前処理が可能であり、Diffusalは多様な選択基準を組み合わせたアプローチに比べて効率的である。
各種ベンチマークデータセットを用いた実験により, 従来の手法と異なり, テスト対象のデータセットとラベルの予算の100%において, ランダム選択を著しく上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 1.0602247913671219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Node classification is one of the core tasks on attributed graphs, but
successful graph learning solutions require sufficiently labeled data. To keep
annotation costs low, active graph learning focuses on selecting the most
qualitative subset of nodes that maximizes label efficiency. However, deciding
which heuristic is best suited for an unlabeled graph to increase label
efficiency is a persistent challenge. Existing solutions either neglect
aligning the learned model and the sampling method or focus only on limited
selection aspects. They are thus sometimes worse or only equally good as random
sampling. In this work, we introduce a novel active graph learning approach
called DiffusAL, showing significant robustness in diverse settings. Toward
better transferability between different graph structures, we combine three
independent scoring functions to identify the most informative node samples for
labeling in a parameter-free way: i) Model Uncertainty, ii) Diversity
Component, and iii) Node Importance computed via graph diffusion heuristics.
Most of our calculations for acquisition and training can be pre-processed,
making DiffusAL more efficient compared to approaches combining diverse
selection criteria and similarly fast as simpler heuristics. Our experiments on
various benchmark datasets show that, unlike previous methods, our approach
significantly outperforms random selection in 100% of all datasets and labeling
budgets tested.
- Abstract(参考訳): ノード分類は属性付きグラフのコアタスクの1つだが、成功したグラフ学習ソリューションは十分なラベル付きデータを必要とする。
アノテーションコストを低く抑えるために、アクティブグラフ学習はラベル効率を最大化するノードの最も質的なサブセットを選択することに焦点を当てている。
しかし、ラベルの効率を高めるためにラベルのないグラフにどのヒューリスティックが最適かを決めることは、永続的な課題である。
既存のソリューションは、学習したモデルとサンプリング方法の整合性を無視したり、限られた選択面にのみフォーカスする。
したがって、ランダムサンプリングと同程度に悪い場合もあれば、良い場合もあります。
そこで本研究では,多種多様な環境において大きなロバスト性を示すdiffusalと呼ばれる新しいアクティブグラフ学習手法を提案する。
異なるグラフ構造間の転送性の向上に向けて、3つの独立スコアリング関数を組み合わせて、パラメータフリーな方法でラベル付けのための最も情報性の高いノードサンプルを同定する。
一 モデル不確実性
二 多様性成分、及び
iii)グラフ拡散ヒューリスティックスによって計算されるノードの重要性。
取得とトレーニングのための計算のほとんどは前処理が可能で、多様な選択基準とより単純なヒューリスティックなアプローチを組み合わせたアプローチと比較して、ディフューサルはより効率的です。
ベンチマークデータセットを用いた実験では,従来の手法と異なり,全データセットの100%におけるランダム選択やラベリング予算を大きく上回る結果が得られた。
関連論文リスト
- Mitigating Label Noise on Graph via Topological Sample Selection [72.86862597508077]
トポロジ情報を活用することで,グラフ内の情報的サンプル選択プロセスを促進できる$textitTopological Sample Selection$ (TSS)法を提案する。
提案手法は,対象のクリーン分布下での予測されるリスク上限の上限を最小化し,最先端のベースラインと比較して,提案手法の優位性を実験的に示す。
論文 参考訳(メタデータ) (2024-03-04T11:24:51Z) - A Simple and Scalable Graph Neural Network for Large Directed Graphs [11.792826520370774]
入力グラフ内のノード表現とエッジ方向認識の様々な組み合わせについて検討する。
そこで本研究では,A2DUGを簡易かつ包括的に分類する手法を提案する。
我々は、A2DUGが様々なデータセットで安定して動作し、最先端の手法と比較して11.29まで精度が向上することを示した。
論文 参考訳(メタデータ) (2023-06-14T06:24:58Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - SMARTQUERY: An Active Learning Framework for Graph Neural Networks
through Hybrid Uncertainty Reduction [25.77052028238513]
本稿では,ハイブリッド不確実性低減関数を用いて,ラベル付きノードの少ないグラフニューラルネットワークを学習するフレームワークを提案する。
ごく少数のラベル付きデータを用いた最先端技術に対する本手法の競合性能を実証する。
論文 参考訳(メタデータ) (2022-12-02T20:49:38Z) - Enhancing Graph Contrastive Learning with Node Similarity [4.60032347615771]
グラフコントラスト学習(GCL)は、自己教師型学習の代表的なフレームワークである。
GCLは、意味的に類似したノード(正のサンプル)と異種ノード(負のサンプル)とアンカーノードとの対比によってノード表現を学習する。
本稿では,全ての正のサンプルと偽陰性サンプルを含まない拡張目的を提案する。
論文 参考訳(メタデータ) (2022-08-13T22:49:20Z) - Information Gain Propagation: a new way to Graph Active Learning with
Soft Labels [26.20597165750861]
グラフニューラルネットワーク(GNN)は様々なタスクで大きな成功を収めているが、その性能は多数のラベル付きノードに依存している。
GNNに基づくアクティブラーニング(AL)手法を提案し,ラベル付けに最も有用なノードを選択することにより,ラベル付け効率を向上させる。
提案手法は, 精度とラベル付けコストの両面から, 最先端のGNNベースのAL法よりも優れていた。
論文 参考訳(メタデータ) (2022-03-02T13:28:25Z) - Improving Contrastive Learning on Imbalanced Seed Data via Open-World
Sampling [96.8742582581744]
我々は、Model-Aware K-center (MAK)と呼ばれるオープンワールドなラベルなしデータサンプリングフレームワークを提案する。
MAKは、尾性、近接性、多様性の3つの単純な原則に従う。
我々はMAKが学習した機能の全体的な表現品質とクラスバランス性の両方を継続的に改善できることを実証した。
論文 参考訳(メタデータ) (2021-11-01T15:09:41Z) - Auto-weighted Multi-view Feature Selection with Graph Optimization [90.26124046530319]
グラフ学習に基づく新しい教師なしマルチビュー特徴選択モデルを提案する。
1) 特徴選択過程において, 異なる視点で共有されたコンセンサス類似度グラフが学習される。
各種データセットを用いた実験により,提案手法が最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-11T03:25:25Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Active Learning on Attributed Graphs via Graph Cognizant Logistic
Regression and Preemptive Query Generation [37.742218733235084]
本稿では,属性グラフにおけるノード分類処理のための新しいグラフベース能動学習アルゴリズムを提案する。
提案アルゴリズムは,線形化グラフ畳み込みニューラルネットワーク(GCN)と等価なグラフ認識ロジスティック回帰を用いて,予測フェーズの誤差低減を最大化する。
5つの公開ベンチマークデータセットで実験を行い、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。