論文の概要: Refining Self-Supervised Learning in Imaging: Beyond Linear Metric
- arxiv url: http://arxiv.org/abs/2202.12921v1
- Date: Fri, 25 Feb 2022 19:25:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 15:44:06.787745
- Title: Refining Self-Supervised Learning in Imaging: Beyond Linear Metric
- Title(参考訳): 画像における自己監督学習の洗練:リニアメトリックを超えて
- Authors: Bo Jiang, Hamid Krim, Tianfu Wu, Derya Cansever
- Abstract要約: 本稿では,ジャカード類似度尺度を測度に基づく計量として活用する,新しい統計的視点を紹介する。
具体的には、提案した計量は、いわゆる潜在表現から得られた2つの適応射影間の依存度として解釈できる。
我々の知る限りでは、この事実上非線形に融合した情報は、Jaccardの類似性に埋め込まれており、将来有望な結果を伴う自己超越学習に新しいものである。
- 参考スコア(独自算出の注目度): 25.96406219707398
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce in this paper a new statistical perspective, exploiting the
Jaccard similarity metric, as a measure-based metric to effectively invoke
non-linear features in the loss of self-supervised contrastive learning.
Specifically, our proposed metric may be interpreted as a dependence measure
between two adapted projections learned from the so-called latent
representations. This is in contrast to the cosine similarity measure in the
conventional contrastive learning model, which accounts for correlation
information. To the best of our knowledge, this effectively non-linearly fused
information embedded in the Jaccard similarity, is novel to self-supervision
learning with promising results. The proposed approach is compared to two
state-of-the-art self-supervised contrastive learning methods on three image
datasets. We not only demonstrate its amenable applicability in current ML
problems, but also its improved performance and training efficiency.
- Abstract(参考訳): 本稿では,jaccard類似度メトリクスを指標として,自己教師付きコントラスト学習の喪失における非線形特徴を効果的に引き出すための新しい統計的視点を提案する。
特に,提案手法は,いわゆる潜在表現から学習した2つの適応射影間の依存測度として解釈できる。
これは、相関情報を考慮した従来のコントラスト学習モデルにおけるコサイン類似性尺度とは対照的である。
我々の知る限りでは、この事実上非線形に融合した情報は、Jaccardの類似性に埋め込まれており、将来有望な結果を伴う自己超越学習に新しいものである。
提案手法は、3つの画像データセット上の2つの最先端の自己教師付きコントラスト学習手法と比較される。
現在のML問題に適用可能であるだけでなく、パフォーマンスやトレーニングの効率も向上しています。
関連論文リスト
- A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - From Pretext to Purpose: Batch-Adaptive Self-Supervised Learning [32.18543787821028]
本稿では,自己教師付きコントラスト学習におけるバッチ融合の適応的手法を提案する。
公平な比較で最先端のパフォーマンスを達成する。
提案手法は,データ駆動型自己教師型学習研究の進展に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-16T15:47:49Z) - Weak Augmentation Guided Relational Self-Supervised Learning [80.0680103295137]
本稿では、異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナル自己教師型学習(ReSSL)フレームワークを提案する。
提案手法では,異なるインスタンス間でのペアワイズ類似度の分布を,テクトitrelationmetricとして高めている。
実験の結果,提案したReSSLは,ネットワークアーキテクチャの異なる最先端手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-03-16T16:14:19Z) - Integrating Contrastive Learning with Dynamic Models for Reinforcement
Learning from Images [31.413588478694496]
我々は、学習した埋め込みのマルコビアン性を明確に改善することが望ましいと論じている。
コントラスト学習と動的モデルを統合する自己教師付き表現学習法を提案する。
論文 参考訳(メタデータ) (2022-03-02T14:39:17Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - ReSSL: Relational Self-Supervised Learning with Weak Augmentation [68.47096022526927]
自己教師付き学習は、データアノテーションなしで視覚表現を学ぶことに成功しました。
本稿では,異なるインスタンス間の関係をモデル化して表現を学習する新しいリレーショナルSSLパラダイムを提案する。
提案したReSSLは,性能とトレーニング効率の両面で,従来の最先端アルゴリズムよりも大幅に優れています。
論文 参考訳(メタデータ) (2021-07-20T06:53:07Z) - Learning from Similarity-Confidence Data [94.94650350944377]
類似度信頼性(Sconf)データから学習する新しい弱監督学習問題について検討する。
本研究では,Sconfデータのみから計算可能な分類リスクの非バイアス推定器を提案し,推定誤差境界が最適収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-02-13T07:31:16Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。