論文の概要: Graph-Based Uncertainty-Aware Self-Training with Stochastic Node Labeling
- arxiv url: http://arxiv.org/abs/2503.22745v1
- Date: Wed, 26 Mar 2025 21:54:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:56.758353
- Title: Graph-Based Uncertainty-Aware Self-Training with Stochastic Node Labeling
- Title(参考訳): 確率ノードラベリングを用いたグラフベース不確かさ認識自己学習
- Authors: Tom Liu, Anna Wu, Chao Li,
- Abstract要約: 本稿では,ノード分類における自信過剰に対処するための,新しいEmphgraph-based uncertainty-aware self-training(GUST)フレームワークを提案する。
本手法は, グラフトポロジに基礎を置き, 従来の自己学習手法とは大きく異なる。
いくつかのベンチマークグラフデータセットの実験結果から,我々のGUSTフレームワークが最先端の性能を達成することを示す。
- 参考スコア(独自算出の注目度): 2.600103729157093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-training has become a popular semi-supervised learning technique for leveraging unlabeled data. However, the over-confidence of pseudo-labels remains a key challenge. In this paper, we propose a novel \emph{graph-based uncertainty-aware self-training} (GUST) framework to combat over-confidence in node classification. Drawing inspiration from the uncertainty integration idea introduced by Wang \emph{et al.}~\cite{wang2024uncertainty}, our method largely diverges from previous self-training approaches by focusing on \emph{stochastic node labeling} grounded in the graph topology. Specifically, we deploy a Bayesian-inspired module to estimate node-level uncertainty, incorporate these estimates into the pseudo-label generation process via an expectation-maximization (EM)-like step, and iteratively update both node embeddings and adjacency-based transformations. Experimental results on several benchmark graph datasets demonstrate that our GUST framework achieves state-of-the-art performance, especially in settings where labeled data is extremely sparse.
- Abstract(参考訳): 自己学習は、ラベルのないデータを活用するための、一般的な半教師付き学習技術となった。
しかし、疑似ラベルの過信は依然として重要な課題である。
本稿では,ノード分類における過剰信頼と闘うための新しいGUSTフレームワークを提案する。
Wang \emph{et al }~\cite{wang2024uncertainty} によって導入された不確実性積分の概念からインスピレーションを得て、この手法はグラフトポロジに根ざした 'emph{stochastic node labeling' に着目し、従来の自己学習アプローチから大きく分岐する。
具体的には、ノードレベルの不確かさを推定するためにベイズにインスパイアされたモジュールをデプロイし、予測最大化(EM)のようなステップを通じてこれらの見積を擬似ラベル生成プロセスに組み込み、ノード埋め込みと隣接ベースの変換の両方を反復的に更新する。
いくつかのベンチマークグラフデータセットの実験結果から、GUSTフレームワークは、特にラベル付きデータが極めて少ない環境で、最先端のパフォーマンスを実現していることが示された。
関連論文リスト
- Uncertainty-Aware Graph Self-Training with Expectation-Maximization Regularization [2.743479615751918]
半教師付きノード分類のためのグラフ自己学習手法を提案する。
本手法は,擬似ラベル生成とモデル再学習における不確実性機構を組み込んだものである。
我々のフレームワークは、ノイズの多いグラフ構造や特徴空間をより効率的に扱うように設計されています。
論文 参考訳(メタデータ) (2025-03-26T21:52:21Z) - Uncertainty-aware self-training with expectation maximization basis transformation [9.7527450662978]
モデルとデータセットの両方の不確実性情報を組み合わせるための,新たな自己学習フレームワークを提案する。
具体的には,ラベルをスムースにし,不確実性情報を包括的に推定するために期待最大化(EM)を提案する。
論文 参考訳(メタデータ) (2024-05-02T11:01:31Z) - Distribution Consistency based Self-Training for Graph Neural Networks
with Sparse Labels [33.89511660654271]
グラフニューラルネットワーク(GNN)のノード分類は重要な課題である
ラベルなしデータの豊富さを活用するための、広く普及しているフレームワークとして、セルフトレーニングが登場した。
本稿では,情報的かつ分散の相違を認識可能な疑似ラベル付きノードを識別する,新しい分散一貫性グラフ自己学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-18T22:07:48Z) - CONVERT:Contrastive Graph Clustering with Reliable Augmentation [110.46658439733106]
信頼性オーグメンテーション(CONVERT)を用いたContrastiVe Graph ClustEringネットワークを提案する。
本手法では,データ拡張を可逆的パーターブ・リカバリネットワークにより処理する。
セマンティクスの信頼性をさらに保証するために、ネットワークを制約する新たなセマンティクス損失が提示される。
論文 参考訳(メタデータ) (2023-08-17T13:07:09Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Transductive Linear Probing: A Novel Framework for Few-Shot Node
Classification [56.17097897754628]
自己教師付きグラフと対照的な事前学習による帰納的線形探索は、同じプロトコル下での最先端の完全教師付きメタラーニング手法より優れていることを示す。
この研究が、数ショットのノード分類問題に新たな光を当て、グラフ上のわずかにラベル付けされたインスタンスから学ぶことの今後の研究を促進することを願っている。
論文 参考訳(メタデータ) (2022-12-11T21:10:34Z) - Neighbour Consistency Guided Pseudo-Label Refinement for Unsupervised
Person Re-Identification [80.98291772215154]
教師なしの人物再識別(ReID)は、アノテーションを使わずに人物検索のための識別的アイデンティティの特徴を学習することを目的としている。
近年の進歩はクラスタリングに基づく擬似ラベルを活用することで実現されている。
本稿では, Pseudo Label Refinement フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T09:39:57Z) - Confidence May Cheat: Self-Training on Graph Neural Networks under
Distribution Shift [39.73304203101909]
高信頼の未ラベルノードをラベル付けし、トレーニングステップに追加することで、グラフ上での自己学習手法が広く採用されている。
本稿では,従来のラベル付きデータセットの分布を復元する新しい分散検索フレームワーク(DR-GST)を提案する。
5つのベンチマークデータセットの理論的解析と広範な実験は、提案したDR-GSTの有効性を実証している。
論文 参考訳(メタデータ) (2022-01-27T07:12:27Z) - Informative Pseudo-Labeling for Graph Neural Networks with Few Labels [12.83841767562179]
グラフニューラルネットワーク(GNN)は、グラフ上の半教師付きノード分類のための最先端の結果を得た。
非常に少数のレーベルでGNNを効果的に学習する方法の課題は、まだ解明されていない。
我々は、非常に少ないラベルを持つGNNの学習を容易にするために、InfoGNNと呼ばれる新しい情報的擬似ラベルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-20T01:49:30Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Two-phase Pseudo Label Densification for Self-training based Domain
Adaptation [93.03265290594278]
TPLDと呼ばれる,新規な二相擬似ラベル高密度化フレームワークを提案する。
第1フェーズでは,スライディングウインドウ投票を用いて,画像内の内在的空間相関を利用して,自信のある予測を広める。
第2フェーズでは,信頼度に基づく容易な分類を行う。
トレーニングプロセスの容易化と騒音予測の回避を目的として,ブートストラップ機構の導入を行った。
論文 参考訳(メタデータ) (2020-12-09T02:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。