論文の概要: ProbMCL: Simple Probabilistic Contrastive Learning for Multi-label
Visual Classification
- arxiv url: http://arxiv.org/abs/2401.01448v1
- Date: Tue, 2 Jan 2024 22:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:47:06.735691
- Title: ProbMCL: Simple Probabilistic Contrastive Learning for Multi-label
Visual Classification
- Title(参考訳): ProbMCL:マルチラベル視覚分類のための簡易確率的コントラスト学習
- Authors: Ahmad Sajedi, Samir Khaki, Yuri A. Lawryshyn, Konstantinos N.
Plataniotis
- Abstract要約: マルチラベル画像分類は、コンピュータビジョンや医用画像など、多くの領域において難しい課題である。
最近の進歩は、グラフベースとトランスフォーマーベースのメソッドを導入し、パフォーマンスを改善し、ラベルの依存関係をキャプチャしている。
本稿では,これらの課題に対処する新しいフレームワークである確率的多ラベルコントラスト学習(ProbMCL)を提案する。
- 参考スコア(独自算出の注目度): 17.932844678349216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-label image classification presents a challenging task in many domains,
including computer vision and medical imaging. Recent advancements have
introduced graph-based and transformer-based methods to improve performance and
capture label dependencies. However, these methods often include complex
modules that entail heavy computation and lack interpretability. In this paper,
we propose Probabilistic Multi-label Contrastive Learning (ProbMCL), a novel
framework to address these challenges in multi-label image classification
tasks. Our simple yet effective approach employs supervised contrastive
learning, in which samples that share enough labels with an anchor image based
on a decision threshold are introduced as a positive set. This structure
captures label dependencies by pulling positive pair embeddings together and
pushing away negative samples that fall below the threshold. We enhance
representation learning by incorporating a mixture density network into
contrastive learning and generating Gaussian mixture distributions to explore
the epistemic uncertainty of the feature encoder. We validate the effectiveness
of our framework through experimentation with datasets from the computer vision
and medical imaging domains. Our method outperforms the existing
state-of-the-art methods while achieving a low computational footprint on both
datasets. Visualization analyses also demonstrate that ProbMCL-learned
classifiers maintain a meaningful semantic topology.
- Abstract(参考訳): マルチラベル画像分類は、コンピュータビジョンや医用画像など、多くの領域において難しい課題である。
最近の進歩は、グラフベースとトランスフォーマーベースのメソッドを導入し、パフォーマンスを改善し、ラベルの依存関係をキャプチャしている。
しかし、これらの手法は重い計算と解釈可能性の欠如を伴う複雑なモジュールを含むことが多い。
本稿では,確率的マルチラベルコントラスト学習(ProbMCL, Probabilistic Multi-label Contrastive Learning)を提案する。
我々の単純かつ効果的なアプローチは、教師付きコントラスト学習を採用し、決定しきい値に基づくアンカー画像と十分なラベルを共有するサンプルを正の集合として導入する。
この構造は、正のペア埋め込みをプルし、しきい値を下回る負のサンプルをプッシュすることで、ラベル依存性をキャプチャする。
コントラスト学習に混合密度ネットワークを組み込んでガウス混合分布を生成し,特徴エンコーダの認識的不確かさを探究することにより,表現学習を強化する。
コンピュータビジョンと医用画像領域のデータセットを用いた実験により,本フレームワークの有効性を検証した。
提案手法は,両データセットの計算フットプリントを低く抑えながら,既存の最先端手法よりも優れる。
可視化分析はまた、probmclがリードする分類器が意味のある意味的トポロジーを維持することを証明している。
関連論文リスト
- Localized Region Contrast for Enhancing Self-Supervised Learning in
Medical Image Segmentation [27.82940072548603]
本稿では,地域コントラスト(LRC)を統合した新しいコントラスト学習フレームワークを提案する。
提案手法では,Felzenszwalbのアルゴリズムによるスーパーピクセルの同定と,新しいコントラッシブサンプリング損失を用いた局所コントラスト学習を行う。
論文 参考訳(メタデータ) (2023-04-06T22:43:13Z) - Reliable Representations Learning for Incomplete Multi-View Partial Multi-Label Classification [78.15629210659516]
本稿ではRANKという不完全なマルチビュー部分的マルチラベル分類ネットワークを提案する。
既存の手法に固有のビューレベルの重みを分解し、各サンプルのビューに品質スコアを動的に割り当てる品質対応サブネットワークを提案する。
我々のモデルは、完全なマルチビューマルチラベルデータセットを処理できるだけでなく、欠落したインスタンスやラベルを持つデータセットでも機能する。
論文 参考訳(メタデータ) (2023-03-30T03:09:25Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Efficient Self-Supervision using Patch-based Contrastive Learning for
Histopathology Image Segmentation [0.456877715768796]
画像パッチに対するコントラスト学習を用いた自己教師型画像分割のためのフレームワークを提案する。
完全畳み込みニューラルネットワーク(FCNN)は、入力画像の特徴を識別するために、自己教師型で訓練される。
提案したモデルは10.8kパラメータを持つ単純なFCNNで構成され、高解像度の顕微鏡データセットに収束するのに約5分を要する。
論文 参考訳(メタデータ) (2022-08-23T07:24:47Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - Semi-supervised Contrastive Learning for Label-efficient Medical Image
Segmentation [11.935891325600952]
そこで本研究では,限定的な画素単位のアノテーションを利用して,同じラベルの画素を埋め込み空間に集めるために,教師付き局所的コントラスト損失を提案する。
ラベル付きデータの量が異なるため、我々の手法は、最先端のコントラストベースの手法や他の半教師付き学習技術よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-09-15T16:23:48Z) - Multi-Label Image Classification with Contrastive Learning [57.47567461616912]
コントラスト学習の直接適用は,複数ラベルの場合においてほとんど改善できないことを示す。
完全教師付き環境下でのコントラスト学習を用いたマルチラベル分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T15:00:47Z) - Self-Ensembling Contrastive Learning for Semi-Supervised Medical Image
Segmentation [6.889911520730388]
限られたラベルを持つ医用画像セグメンテーションにおける半教師あり学習の性能向上を目指す。
我々は、ラベルのない画像に対照的な損失を与えることによって、特徴レベルで潜在表現を直接学習する。
我々はMRIとCTのセグメンテーションデータセットの実験を行い、提案手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-27T03:27:58Z) - Contrastive learning of strong-mixing continuous-time stochastic
processes [53.82893653745542]
コントラスト学習(Contrastive Learning)は、ラベルのないデータから構築された分類タスクを解決するためにモデルを訓練する自己指導型の手法のファミリーである。
拡散の場合,小~中距離間隔の遷移カーネルを適切に構築したコントラスト学習タスクを用いて推定できることが示される。
論文 参考訳(メタデータ) (2021-03-03T23:06:47Z) - Generalized Categorisation of Digital Pathology Whole Image Slides using
Unsupervised Learning [0.0]
このプロジェクトの目的は、大きな病理画像を小さなタイルに分割し、真のラベルの知識なしにそれらのタイルを別々のグループにクラスタリングすることです。
このプロジェクトは、K-Meansなどの古典的なクラスタリングアルゴリズムから、深層オートエンコーダやマルチロスラーニングなどのより複雑な機能抽出技術まで、さまざまなテクニックを組み合わせています。
論文 参考訳(メタデータ) (2020-12-27T14:38:22Z) - CSI: Novelty Detection via Contrastive Learning on Distributionally
Shifted Instances [77.28192419848901]
コントラストシフトインスタンス (CSI) という,単純かつ効果的な手法を提案する。
従来のコントラスト学習法のように,サンプルを他の例と対比することに加えて,本トレーニング手法では,サンプルを分散シフトによる拡張と対比する。
本実験は, 種々の新規検出シナリオにおける本手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-07-16T08:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。