論文の概要: Taming the Randomness: Towards Label-Preserving Cropping in Contrastive Learning
- arxiv url: http://arxiv.org/abs/2504.19824v1
- Date: Mon, 28 Apr 2025 14:24:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.463494
- Title: Taming the Randomness: Towards Label-Preserving Cropping in Contrastive Learning
- Title(参考訳): ランダム性に対処する - コントラスト学習におけるラベル保存型クロップを目指して-
- Authors: Mohamed Hassan, Mohammad Wasil, Sebastian Houben,
- Abstract要約: 自己ラベル付けの堅牢性を高め、その結果、有効性を高める2つの新しいパラメータ化収穫法が導入された。
その結果,CIFAR-10を分類する下流作業において,これらの手法を用いることでモデルの精度が2.7%から12.4%向上することが示唆された。
- 参考スコア(独自算出の注目度): 3.6892468778566427
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Contrastive learning (CL) approaches have gained great recognition as a very successful subset of self-supervised learning (SSL) methods. SSL enables learning from unlabeled data, a crucial step in the advancement of deep learning, particularly in computer vision (CV), given the plethora of unlabeled image data. CL works by comparing different random augmentations (e.g., different crops) of the same image, thus achieving self-labeling. Nevertheless, randomly augmenting images and especially random cropping can result in an image that is semantically very distant from the original and therefore leads to false labeling, hence undermining the efficacy of the methods. In this research, two novel parameterized cropping methods are introduced that increase the robustness of self-labeling and consequently increase the efficacy. The results show that the use of these methods significantly improves the accuracy of the model by between 2.7\% and 12.4\% on the downstream task of classifying CIFAR-10, depending on the crop size compared to that of the non-parameterized random cropping method.
- Abstract(参考訳): コントラスト学習(CL)アプローチは、自己教師付き学習(SSL)手法の非常に成功したサブセットとして認識されている。
SSLは、ラベルなしデータからの学習を可能にする。これは、ラベルなし画像データの多さを考えると、特にコンピュータビジョン(CV)において、ディープラーニングの進歩における重要なステップである。
CLは、同じ画像の異なるランダム拡大(例えば、異なる作物)を比較して、自己ラベルを実現する。
それでも、ランダムに拡大する画像、特にランダムな収穫は、意味的に元のものと非常に離れており、従って偽のラベル付けにつながるため、方法の有効性を損なう可能性がある。
本研究では, 自己ラベルの堅牢性を向上し, 有効性を向上する2つの新しいパラメータ化収穫法を提案する。
その結果、CIFAR-10を分類する下流作業において、これらの手法を用いることでモデルの精度が2.7\%から12.4\%に向上することが判明した。
関連論文リスト
- CLIPure: Purification in Latent Space via CLIP for Adversarially Robust Zero-Shot Classification [65.46685389276443]
画像とテキストプロンプトをマッチングすることでゼロショット分類を行うことができる、視覚言語で事前訓練されたエンコーダモデルであるCLIPについて検討する。
次に, 共分散精製プロセス間のKL分散として精製リスクを定式化する。
画像の潜伏ベクトルの確率をモデル化するCLI-Diffと、画像の埋め込みとaの写真とのコサイン類似度をモデル化するCLI-Cosの2つのバリエーションを提案する。
論文 参考訳(メタデータ) (2025-02-25T13:09:34Z) - IPSeg: Image Posterior Mitigates Semantic Drift in Class-Incremental Segmentation [77.06177202334398]
CISSにおけるセマンティックドリフトとデグレード性能に寄与する2つの重要な課題を特定した。
まず、モデルの異なる部分が異なる漸進的な段階に最適化されるという、別々の最適化の問題を強調します。
第二に、不適切な擬似ラベルから生じる雑音のセマンティクスを同定し、その結果、準最適結果が得られる。
論文 参考訳(メタデータ) (2025-02-07T12:19:37Z) - Local Manifold Learning for No-Reference Image Quality Assessment [68.9577503732292]
No-Reference Image Quality Assessment(NR-IQA)のための、局所多様体学習とコントラスト学習を統合した革新的なフレームワークを提案する。
提案手法は,7つの標準データセットの最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-27T15:14:23Z) - Classification of Breast Cancer Histopathology Images using a Modified Supervised Contrastive Learning Method [4.303291247305105]
モデルロバスト性を高めるために、画像レベルラベルとドメイン固有の拡張の両方を活用することで教師付きコントラスト学習法を改善する。
乳癌の病理組織像から得られたBreakHisデータセットについて検討した。
この改良は93.63%の絶対精度に対応し、データの特性を利用してより適切な表現空間を学習するアプローチの有効性を強調した。
論文 参考訳(メタデータ) (2024-05-06T17:06:11Z) - LeOCLR: Leveraging Original Images for Contrastive Learning of Visual Representations [4.680881326162484]
画像分類やオブジェクト検出などの下流タスクにおける教師あり学習よりも優れている。
対照的な学習における一般的な強化手法は、ランダムな収穫とそれに続くリサイズである。
本稿では,新しいインスタンス識別手法と適応型損失関数を用いたフレームワークであるLeOCLRを紹介する。
論文 参考訳(メタデータ) (2024-03-11T15:33:32Z) - Decoupled Contrastive Learning for Long-Tailed Recognition [58.255966442426484]
Supervised Contrastive Loss (SCL) は視覚表現学習で人気がある。
ロングテール認識のシナリオでは、各クラスのサンプル数が不均衡である場合、2種類の正のサンプルを同じように扱うと、カテゴリー内距離に対するバイアス最適化が導かれる。
そこで我々は,尾級の低表現を緩和するために,頭級から尾級へ知識を伝達するためのパッチベースの自己蒸留法を提案する。
論文 参考訳(メタデータ) (2024-03-10T09:46:28Z) - Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - Dual-Perspective Semantic-Aware Representation Blending for Multi-Label
Image Recognition with Partial Labels [70.36722026729859]
本稿では,多粒度カテゴリ固有の意味表現を異なる画像にブレンドした,二重パースペクティブな意味認識表現ブレンディング(DSRB)を提案する。
提案したDSは、すべての比率ラベル設定において、最先端のアルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2022-05-26T00:33:44Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - MixCL: Pixel label matters to contrastive learning [22.84281480316401]
医用画像解析のためのMixCL(Mixed Contrastive Learning)と呼ばれる新しい事前学習フレームワークを提案する。
MixCLは、画像のアイデンティティとピクセルラベルの両方を活用して、アイデンティティの一貫性、ラベルの一貫性、リコンストラクションの一貫性を共に維持することで、より良いモデリングを行う。
論文 参考訳(メタデータ) (2022-03-04T03:01:19Z) - FixMatch: Simplifying Semi-Supervised Learning with Consistency and
Confidence [93.91751021370638]
半教師付き学習(SSL)は、ラベルのないデータを活用してモデルの性能を向上させる効果的な手段を提供する。
本稿では、整合正則化と擬似ラベル付けという2つの共通SSL手法の単純な組み合わせのパワーを実証する。
筆者らのアルゴリズムであるFixMatchは、まず、弱拡張未ラベル画像上のモデルの予測を用いて擬似ラベルを生成する。
論文 参考訳(メタデータ) (2020-01-21T18:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。