論文の概要: Stronger is not better: Better Augmentations in Contrastive Learning for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2512.05992v1
- Date: Sun, 30 Nov 2025 22:42:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.123223
- Title: Stronger is not better: Better Augmentations in Contrastive Learning for Medical Image Segmentation
- Title(参考訳): 医用画像セグメンテーションにおけるコントラスト学習の強化
- Authors: Azeez Idris, Abdurahman Ali Mohammed, Samuel Fanijo,
- Abstract要約: 本稿では、自己教師型コントラスト学習における性能向上の最も重要な要素である強データ拡張を評価する。
既存のデータ拡張では,医用画像のセマンティックセグメンテーションの性能が必ずしも向上しないことがわかった。
- 参考スコア(独自算出の注目度): 0.08311645599700011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised contrastive learning is among the recent representation learning methods that have shown performance gains in several downstream tasks including semantic segmentation. This paper evaluates strong data augmentation, one of the most important components for self-supervised contrastive learning's improved performance. Strong data augmentation involves applying the composition of multiple augmentation techniques on images. Surprisingly, we find that the existing data augmentations do not always improve performance for semantic segmentation for medical images. We experiment with other augmentations that provide improved performance.
- Abstract(参考訳): 自己教師付きコントラスト学習は、セマンティックセグメンテーションを含むいくつかの下流タスクにおいて、性能向上を示す最近の表現学習手法の1つである。
本稿では,自己教師型コントラスト学習の性能向上の最も重要な要素である強データ拡張を評価する。
強いデータ拡張には、画像に複数の拡張技法の合成を適用することが含まれる。
驚いたことに、既存のデータ拡張は、医用画像のセマンティックセグメンテーションの性能を常に向上させるわけではない。
性能を向上する他の拡張を実験する。
関連論文リスト
- Efficacy of Image Similarity as a Metric for Augmenting Small Dataset Retinal Image Segmentation [0.0]
合成画像の品質を評価するための一般的な指標は、2つの画像データセットの類似度を測定するFr'echet Inception Distance (FID)である。
本研究は, 標準画像と合成画像との強化動作が, 従来実施されていた実験と一致していることを示す。
トレーニングと増分データセットの間のFIDが減少するにつれて、増分データセットは画像セグメンテーションの重要かつ堅牢な改善に寄与することが示されている。
論文 参考訳(メタデータ) (2025-07-07T10:38:45Z) - Style Augmentation improves Medical Image Segmentation [0.0]
分類タスクですでに使用されているスタイル拡張は、テクスチャの過度な適合を減らし、セグメンテーションのパフォーマンスを向上させる。
この研究は、分類タスクですでに使用されているスタイル拡張のMoNuSegデータセットで示されており、テクスチャの過度な適合を低減し、セグメンテーションのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-11-02T14:00:12Z) - MSR: Making Self-supervised learning Robust to Aggressive Augmentations [98.6457801252358]
本稿では,弱いペアと攻撃的なペアの役割のバランスをとることによって,意味変化の影響に対処する新たなSSLパラダイムを提案する。
我々は,BYOLを2.5%改善したResNet-50を200エポックとして,ImageNet-1Kで73.1%のTop-1精度を実現したことを示す。
論文 参考訳(メタデータ) (2022-06-04T14:27:29Z) - Boosting Robustness of Image Matting with Context Assembling and Strong
Data Augmentation [83.31087402305306]
トリマップへのロバストさと、異なる領域の画像への一般化はまだ未定である。
マルチレベルコンテキストアッセンブルと強力なデータ拡張により高ロバスト性(RMat)を実現する画像マッチング手法を提案する。
論文 参考訳(メタデータ) (2022-01-18T11:45:17Z) - Residual Relaxation for Multi-view Representation Learning [64.40142301026805]
マルチビュー手法は、同じ画像の複数のビューをアライメントすることで学習する。
画像回転などの有用な拡張は、セマンティックシフトを引き起こすため、多視点法には有害である。
我々は,Pretext-aware Residual Relaxation (Prelax) という汎用的な手法を開発し,正確なアライメントを緩和する。
論文 参考訳(メタデータ) (2021-10-28T17:57:17Z) - Contrastive Learning with Stronger Augmentations [63.42057690741711]
本論文では,現在のコントラスト学習のアプローチを補完する,より強い拡張(A)によるコントラスト学習という汎用フレームワークを提案する。
ここでは、表現バンク上の弱強調画像と強拡張画像との間の分布のばらつきを利用して、強拡張クエリの検索を監督する。
実験では、強力な画像からの情報により、パフォーマンスが大幅に向上します。
論文 参考訳(メタデータ) (2021-04-15T18:40:04Z) - Synthetic Convolutional Features for Improved Semantic Segmentation [139.5772851285601]
本稿では、中間畳み込み特徴を生成することを提案し、そのような中間畳み込み特徴に対応する最初の合成手法を提案する。
これにより、ラベルマスクから新機能を生成し、トレーニング手順にうまく組み込むことができます。
Cityscapes と ADE20K の2つの挑戦的なデータセットに関する実験結果と分析により,生成した特徴がセグメンテーションタスクのパフォーマンスを向上させることが示された。
論文 参考訳(メタデータ) (2020-09-18T14:12:50Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。