論文の概要: Similarity-Dissimilarity Loss for Multi-label Supervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2410.13439v3
- Date: Tue, 25 Mar 2025 21:47:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 09:39:25.628336
- Title: Similarity-Dissimilarity Loss for Multi-label Supervised Contrastive Learning
- Title(参考訳): マルチラベル教師付きコントラスト学習における類似性-類似性損失
- Authors: Guangming Huang, Yunfei Long, Cunjin Luo,
- Abstract要約: 教師付きコントラスト学習はラベル情報を活用することで大きな成功を収めた。
しかし、多ラベルシナリオにおける正のサンプルの決定は依然として重要な課題である。
- 参考スコア(独自算出の注目度): 4.325075044327162
- License:
- Abstract: Supervised contrastive learning has achieved remarkable success by leveraging label information; however, determining positive samples in multi-label scenarios remains a critical challenge. In multi-label supervised contrastive learning (MSCL), relations among multi-label samples are not yet fully defined, leading to ambiguity in identifying positive samples and formulating contrastive loss functions to construct the representation space. To address these challenges, we: (i) first define five distinct multi-label relations in MSCL to systematically identify positive samples, (ii) introduce a novel Similarity-Dissimilarity Loss that dynamically re-weights samples through computing the similarity and dissimilarity factors between positive samples and given anchors based on multi-label relations, and (iii) further provide theoretical grounded proof for our method through rigorous mathematical analysis that supports the formulation and effectiveness of the proposed loss function. We conduct the experiments across both image and text modalities, and extend the evaluation to medical domain. The results demonstrate that our method consistently outperforms baselines in a comprehensive evaluation, confirming its effectiveness and robustness. Code is available at: https://github.com/guangminghuang/similarity-dissimilarity-loss.
- Abstract(参考訳): 教師付きコントラスト学習はラベル情報を活用することで顕著な成功を収めてきたが、多ラベルシナリオにおける肯定的なサンプルの決定は依然として重要な課題である。
マルチラベル教師付きコントラスト学習(MSCL)では、マルチラベルサンプル間の関係がまだ完全に定義されていないため、正のサンプルを識別し、表現空間を構築するためにコントラスト損失関数を定式化するあいまいさが生じる。
これらの課題に対処するために、私たちはこう考えています。
(i)まず,MSCLにおける5つの異なる多ラベル関係を定義し,正のサンプルを体系的に同定する。
2) サンプルを動的に重み付けする新しい類似性・類似性損失を導入し、複数ラベル関係に基づく正のサンプルと与えられたアンカーの類似性と相似性係数を計算し、
また,提案した損失関数の定式化と有効性を支持する厳密な数学的解析により,本手法の理論的基礎的証明も提供する。
画像とテキストの両モードで実験を行い、評価を医療領域に拡張する。
その結果,本手法は総合評価において一貫してベースラインを上回り,その有効性とロバスト性を確認した。
コードは、https://github.com/guangminghuang/similarity-dissimilarity-loss.comで入手できる。
関連論文リスト
- Multi-Label Contrastive Learning : A Comprehensive Study [48.81069245141415]
マルチラベルの分類は、研究と産業の両方において重要な領域として現れてきた。
対照的な学習をマルチラベル分類に適用することは、ユニークな課題である。
多様な環境における多ラベル分類のためのコントラスト学習損失の詳細な研究を行う。
論文 参考訳(メタデータ) (2024-11-27T20:20:06Z) - Multi-Label Bayesian Active Learning with Inter-Label Relationships [3.88369051454137]
両課題に対処する多ラベルアクティブラーニング戦略を提案する。
本手法は, 漸進的に更新された正相関行列と負相関行列を組み込んで, 共起関係と解離関係を捉える。
私たちの戦略は、いくつかの確立された方法と比較して、信頼性と優れたパフォーマンスを継続的に達成します。
論文 参考訳(メタデータ) (2024-11-26T23:28:54Z) - Cluster-aware Contrastive Learning for Unsupervised Out-of-distribution
Detection [0.0]
教師なしアウト・オブ・ディストリビューション(OOD)検出は、ラベル情報なしでトレーニングデータの分布外に落下するサンプルを分離することを目的としている。
本稿では,インスタンスレベルの情報と意味レベルの情報の両方を考慮した,教師なしOOD検出のためのクラスタ対応コントラスト学習(CCL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-06T07:21:03Z) - Contrastive Bayesian Analysis for Deep Metric Learning [30.21464199249958]
特徴的類似性によって条件付けられた画像ラベルの後方確率を特徴付け,モデル化するために,コントラッシブなベイズ解析を開発した。
この対照的なベイズ解析は、深い計量学習のための新しい損失関数をもたらす。
実験結果とアブレーション実験により,提案手法は深層学習の性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-10-10T02:24:21Z) - PercentMatch: Percentile-based Dynamic Thresholding for Multi-Label
Semi-Supervised Classification [64.39761523935613]
トレーニング中の各クラスに対する正と負の擬似ラベルのスコア閾値を動的に変更するためのパーセンタイルベースのしきい値調整手法を提案する。
近年のSSL方式と比較して, Pascal VOC2007 と MS-COCO のデータセットの性能は高い。
論文 参考訳(メタデータ) (2022-08-30T01:27:48Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - Learning from Aggregate Observations [82.44304647051243]
本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
論文 参考訳(メタデータ) (2020-04-14T06:18:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。