論文の概要: Flaky Performances when Pretraining on Relational Databases
- arxiv url: http://arxiv.org/abs/2211.05213v1
- Date: Wed, 9 Nov 2022 21:50:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:41:20.325249
- Title: Flaky Performances when Pretraining on Relational Databases
- Title(参考訳): 関係データベースによる事前学習時のフレーキー性能
- Authors: Shengchao Liu, David Vazquez, Jian Tang, Pierre-Andr\'e No\"el
- Abstract要約: 関係データベース(RDB)から抽出したサブグラフに基づいて学習したグラフニューラルネットワーク(GNN)自己教師型学習(SSL)手法のダウンストリームタスク性能について検討する。
対照的なSSLテクニックをネーティブに移植することは、ネガティブな転送を引き起こす可能性がある」。
対照的なSSLはGNNのメッセージパッシング層と矛盾するという予想に基づいて、ノードの初期層と最終層の表現間の相互情報の最大化を目的とした、対比的な損失であるInfoNodeを提案する。
- 参考スコア(独自算出の注目度): 20.840010074776544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the downstream task performances for graph neural network (GNN)
self-supervised learning (SSL) methods trained on subgraphs extracted from
relational databases (RDBs). Intuitively, this joint use of SSL and GNNs should
allow to leverage more of the available data, which could translate to better
results. However, we found that naively porting contrastive SSL techniques can
cause ``negative transfer'': linear evaluation on fixed representations from a
pretrained model performs worse than on representations from the
randomly-initialized model. Based on the conjecture that contrastive SSL
conflicts with the message passing layers of the GNN, we propose InfoNode: a
contrastive loss aiming to maximize the mutual information between a node's
initial- and final-layer representation. The primary empirical results support
our conjecture and the effectiveness of InfoNode.
- Abstract(参考訳): 本稿では,リレーショナルデータベース(RDB)から抽出したサブグラフに基づいて学習したグラフニューラルネットワーク(GNN)自己教師付き学習(SSL)手法のダウンストリームタスク性能について検討する。
直感的には、SSLとGNNを併用することで、より多くの利用可能なデータを活用することが可能になる。
事前訓練されたモデルからの固定表現に対する線形評価は、ランダムに初期化されたモデルからの表現よりも悪化する。
対照的なSSLはGNNのメッセージパッシング層と矛盾するという予想に基づいて、ノードの初期層と最終層の表現間の相互情報の最大化を目的とした、対比的な損失であるInfoNodeを提案する。
主要な実証結果は、私たちの予想とInfoNodeの有効性を支持します。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models [39.42802115580677]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を利用して予測モデルを構築することができる。
近年の文献では、事前訓練されたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,ラベルの誤りに敏感でない特徴抽出器を更新するために,非ラベルデータから擬似ラベルを使用することを提案する。
論文 参考訳(メタデータ) (2023-09-09T01:57:14Z) - Siamese Prototypical Contrastive Learning [24.794022951873156]
コントラスト型自己教師学習(Contrastive Self-supervised Learning, CSL)は、大規模データから意味のある視覚的表現を教師なしアプローチで学習する実践的ソリューションである。
本稿では,単純かつ効果的なコントラスト学習フレームワークを導入することで,この問題に対処する。
重要な洞察は、シアメスタイルのメートル法損失を用いて、原型間特徴間の距離を増大させながら、原型内特徴と一致させることである。
論文 参考訳(メタデータ) (2022-08-18T13:25:30Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Matching Distributions via Optimal Transport for Semi-Supervised
Learning [31.533832244923843]
SSL(Semi-Supervised Learning)アプローチは、ラベルのないデータを使用する上で、影響力のあるフレームワークである。
本稿では、離散的経験的確率測度間の類似性の指標として最適輸送(OT)手法を採用する新しい手法を提案する。
提案手法を標準データセット上で,最先端のSSLアルゴリズムを用いて評価し,SSLアルゴリズムの優位性と有効性を示す。
論文 参考訳(メタデータ) (2020-12-04T11:15:14Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。