論文の概要: Towards Robust Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2102.13085v1
- Date: Thu, 25 Feb 2021 18:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 17:50:19.664272
- Title: Towards Robust Graph Contrastive Learning
- Title(参考訳): ロバストグラフコントラスト学習に向けて
- Authors: Nikola Jovanovi\'c, Zhao Meng, Lukas Faber, Roger Wattenhofer
- Abstract要約: 学習した表現の対比堅牢性を高める新しい方法を紹介します。
予備実験で得られた表現を評価し,有望な結果を得た。
- 参考スコア(独自算出の注目度): 7.193373053157517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of adversarially robust self-supervised learning on
graphs. In the contrastive learning framework, we introduce a new method that
increases the adversarial robustness of the learned representations through i)
adversarial transformations and ii) transformations that not only remove but
also insert edges. We evaluate the learned representations in a preliminary set
of experiments, obtaining promising results. We believe this work takes an
important step towards incorporating robustness as a viable auxiliary task in
graph contrastive learning.
- Abstract(参考訳): 対比的に堅牢な自己監督学習の問題をグラフ上で研究する。
対照的な学習フレームワークでは、学習した表現の対角的堅牢性を高める新しい手法を導入し、(i) 逆変換と(i) エッジを除去するだけでなく、挿入する変換を導入する。
予備実験で得られた表現を評価し,有望な結果を得た。
この作業は、グラフのコントラスト学習において実行可能な補助タスクとして堅牢性を取り入れる重要なステップであると考えています。
関連論文リスト
- R\'enyiCL: Contrastive Representation Learning with Skew R\'enyi
Divergence [78.15455360335925]
我々はR'enyiCLという新しい頑健なコントラスト学習手法を提案する。
我々の手法は R'enyi divergence の変動的下界の上に構築されている。
我々は,R'enyi の対照的な学習目的が,自然に強い負のサンプリングと簡単な正のサンプリングを同時に行うことを示す。
論文 参考訳(メタデータ) (2022-08-12T13:37:05Z) - Understanding Contrastive Learning Requires Incorporating Inductive
Biases [64.56006519908213]
下流タスクにおけるコントラスト学習の成功を理論的に説明しようとする最近の試みは、エム強化の特性とエムコントラスト学習の損失の値によって保証が証明されている。
このような分析は,関数クラスやトレーニングアルゴリズムの帰納的バイアスを無視し,いくつかの設定において不確実な保証につながることを実証する。
論文 参考訳(メタデータ) (2022-02-28T18:59:20Z) - Revisiting Contrastive Learning through the Lens of Neighborhood
Component Analysis: an Integrated Framework [70.84906094606072]
下流タスクにおいて高い精度とロバスト性を同時に達成できるような、統合されたコントラスト損失を設計するための新しい手法を示す。
統合フレームワークでは,標準精度が最大6%向上し,対角精度が17%向上した。
論文 参考訳(メタデータ) (2021-12-08T18:54:11Z) - Simple Contrastive Representation Adversarial Learning for NLP Tasks [17.12062566060011]
教師付きコントラスト対逆学習(SCAL)と教師なしSCAL(USCAL)の2つの新しいフレームワークを提案する。
本稿では,自然言語理解,文意味的テキスト類似性,対人学習タスクのためのTransformerベースのモデルに適用する。
GLUEベンチマークタスクの実験結果から,細調整された教師付き手法はBERT$_base$1.75%以上の性能を示した。
論文 参考訳(メタデータ) (2021-11-26T03:16:09Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - A Broad Study on the Transferability of Visual Representations with
Contrastive Learning [15.667240680328922]
線形評価, 全ネットワーク転送, 数ショット認識のための造影的アプローチの学習表現の伝達性について検討する。
その結果、コントラスト的アプローチは、異なる下流タスクに簡単に移行できる表現を学習できることが示される。
分析の結果, コントラスト的アプローチから得られた表現は, クロスエントロピーモデルよりも低レベル・中レベルセマンティクスを含んでいることがわかった。
論文 参考訳(メタデータ) (2021-03-24T22:55:04Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。