論文の概要: Rethinking the Setting of Semi-supervised Learning on Graphs
- arxiv url: http://arxiv.org/abs/2205.14403v1
- Date: Sat, 28 May 2022 11:31:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:55:52.696869
- Title: Rethinking the Setting of Semi-supervised Learning on Graphs
- Title(参考訳): グラフ上での半教師あり学習の設定再考
- Authors: Ziang Li, Ming Ding, Weikai Li, Zihan Wang, Ziyu Zeng, Yukuo Cen, Jie
Tang
- Abstract要約: グラフ上の半教師付き学習の現在の設定は、不公平な比較をもたらすかもしれないと論じる。
本稿では,検証セット内のラベル情報を完全に活用するアプローチであるValidUtilを提案する。
- 参考スコア(独自算出の注目度): 29.5439965223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that the present setting of semisupervised learning on graphs may
result in unfair comparisons, due to its potential risk of over-tuning
hyper-parameters for models. In this paper, we highlight the significant
influence of tuning hyper-parameters, which leverages the label information in
the validation set to improve the performance. To explore the limit of
over-tuning hyperparameters, we propose ValidUtil, an approach to fully utilize
the label information in the validation set through an extra group of
hyper-parameters. With ValidUtil, even GCN can easily get high accuracy of
85.8% on Cora.
To avoid over-tuning, we merge the training set and the validation set and
construct an i.i.d. graph benchmark (IGB) consisting of 4 datasets. Each
dataset contains 100 i.i.d. graphs sampled from a large graph to reduce the
evaluation variance. Our experiments suggest that IGB is a more stable
benchmark than previous datasets for semisupervised learning on graphs.
- Abstract(参考訳): グラフ上の半教師付き学習の現在の設定は、モデルに対して過度にチューニングされるハイパーパラメーターのリスクがあるため、不公平な比較をもたらす可能性がある。
本稿では,検証セットのラベル情報を利用して性能を向上させるハイパーパラメータのチューニングの影響について述べる。
過度に調整されたハイパーパラメータの限界を探索するために,超パラメータの余剰グループを通した検証セットのラベル情報を完全に活用するアプローチであるValidUtilを提案する。
ValidUtilでは、GCNでさえコラで85.8%の精度が得られる。
オーバーチューニングを避けるため、トレーニングセットと検証セットをマージし、4つのデータセットからなるi.d.グラフベンチマーク(IGB)を構築する。
各データセットは、評価分散を低減するために、大きなグラフからサンプリングされた100のi.d.グラフを含む。
実験の結果, IGB はグラフ上の半教師あり学習のための従来のデータセットよりも安定なベンチマークであることが示唆された。
関連論文リスト
- Enhancing Zero-Shot Vision Models by Label-Free Prompt Distribution Learning and Bias Correcting [55.361337202198925]
CLIPのようなヴィジュアル言語モデルは、適切なテキスト記述を使用する際に、顕著な一般化能力を示している。
本稿では,ラベル付きデータを必要としないゼロショット性能を向上する,**Frolic**と呼ばれるラベルフリーな分布学習とバイアス補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-25T04:00:45Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Parameter-tuning-free data entry error unlearning with adaptive
selective synaptic dampening [51.34904967046097]
本稿では,パラメータチューニングの必要性を排除した選択的シナプス減衰アンラーニング法の拡張を提案する。
本稿では,ResNet18とVision Transformerの未学習タスクにおける適応選択的シナプス減衰(ASSD)の性能を示す。
このアプローチの適用は、サプライチェーン管理などの産業環境において特に魅力的である。
論文 参考訳(メタデータ) (2024-02-06T14:04:31Z) - Diving into Unified Data-Model Sparsity for Class-Imbalanced Graph
Representation Learning [30.23894624193583]
非ユークリッドグラフデータに基づくグラフニューラルネットワーク(GNN)トレーニングは、しばしば比較的高い時間コストに直面する。
グラフ決定(Graph Decantation, GraphDec)と呼ばれる統一されたデータモデル動的疎結合フレームワークを開発し, 大規模なクラス不均衡グラフデータのトレーニングによる課題に対処する。
論文 参考訳(メタデータ) (2022-10-01T01:47:00Z) - Three New Validators and a Large-Scale Benchmark Ranking for
Unsupervised Domain Adaptation [37.03614011735927]
教師なしドメイン適応(UDA)のための3つの新しいバリデータを提案する。
私たちは、1000,000のチェックポイントの大規模なデータセットで、他の5つのバリデータと比較し、ランク付けします。
提案するバリデータのうち2つは,様々な環境で最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-08-15T17:55:26Z) - From Spectral Graph Convolutions to Large Scale Graph Convolutional
Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、様々なタスクにうまく適用された強力な概念であることが示されている。
古典グラフ理論の関連部分を含むGCNの定義への道を開いた理論を考察する。
論文 参考訳(メタデータ) (2022-07-12T16:57:08Z) - Features Based Adaptive Augmentation for Graph Contrastive Learning [0.0]
自己監督学習は、グラフ表現学習における高価なアノテーションの必要性を排除することを目的としている。
機能に基づく適応拡張(FebAA)アプローチを導入し、潜在的に影響力のある機能を特定し保存する。
8つのグラフ表現学習のベンチマークデータセットにおいて,GRACEとBGRLの精度を向上させることに成功した。
論文 参考訳(メタデータ) (2022-07-05T03:41:20Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Graph Contrastive Learning Automated [94.41860307845812]
グラフコントラスト学習(GraphCL)は、有望な表現学習性能とともに登場した。
GraphCLのヒンジがアドホックなデータ拡張に与える影響は、データセット毎に手動で選択する必要がある。
本稿では,グラフデータ上でGraphCLを実行する際に,データ拡張を自動的に,適応的に動的に選択する統合バイレベル最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:35:27Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。