論文の概要: Scale-Aware Self-Supervised Learning for Segmentation of Small and Sparse Structures
- arxiv url: http://arxiv.org/abs/2601.18619v1
- Date: Mon, 26 Jan 2026 15:58:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.914694
- Title: Scale-Aware Self-Supervised Learning for Segmentation of Small and Sparse Structures
- Title(参考訳): 小規模・スパース構造の分節化のためのスケールアウェアな自己教師付き学習
- Authors: Jorge Quesada, Ghassan AlRegib,
- Abstract要約: 自己教師付き学習は、限定的なアノテーション体制下での表現学習の強力な戦略として登場した。
そこで本研究では,小型の収穫機を拡張パイプラインに統合するSSL適応方式を提案する。
データモダリティが著しく異なる2つの領域(地震イメージングとニューロイメージング)にまたがるこのアプローチを評価した。
- 参考スコア(独自算出の注目度): 8.202335520689024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning (SSL) has emerged as a powerful strategy for representation learning under limited annotation regimes, yet its effectiveness remains highly sensitive to many factors, especially the nature of the target task. In segmentation, existing pipelines are typically tuned to large, homogeneous regions, but their performance drops when objects are small, sparse, or locally irregular. In this work, we propose a scale-aware SSL adaptation that integrates small-window cropping into the augmentation pipeline, zooming in on fine-scale structures during pretraining. We evaluate this approach across two domains with markedly different data modalities: seismic imaging, where the goal is to segment sparse faults, and neuroimaging, where the task is to delineate small cellular structures. In both settings, our method yields consistent improvements over standard and state-of-the-art baselines under label constraints, improving accuracy by up to 13% for fault segmentation and 5% for cell delineation. In contrast, large-scale features such as seismic facies or tissue regions see little benefit, underscoring that the value of SSL depends critically on the scale of the target objects. Our findings highlight the need to align SSL design with object size and sparsity, offering a general principle for buil ding more effective representation learning pipelines across scientific imaging domains.
- Abstract(参考訳): 自己教師付き学習(SSL)は、限られたアノテーション体制下での表現学習の強力な戦略として登場したが、その効果は多くの要因、特に目標タスクの性質に非常に敏感なままである。
セグメント化では、既存のパイプラインは通常、大きく均質な領域にチューニングされるが、オブジェクトが小さく、疎らで、あるいは局所的に不規則な場合には、パフォーマンスが低下する。
そこで本研究では,小型の収穫機を拡張パイプラインに統合し,事前訓練中に微細構造を拡大するSSL適応方式を提案する。
我々は、この手法を2つの領域にまたがって明らかに異なるデータモダリティで評価する: 地震イメージング(英語版)(英語版)(英語版)(英語版)(英語版)(英語版)(英語版))(英語版)(英語版)(英語版)(英語版))(英語版)(英語版)(英語版)(英語版)(英語版)(英語版))(英語版)(英語版)(英語版))(英語版)(英語版))(英語版)(英語版)(英語版)(英語版))(英語版)(英語版)(英語版)(英語版)(英語版)(英語版)(英語版)(英語版)(英語版))(英語版)(英語版))(英語版)(英語版)(英語版)
いずれの設定においても,本手法はラベル制約下での標準ベースラインと最先端ベースラインを一貫した改善を実現し,フォールトセグメンテーションでは最大13%,セルデラインでは5%の精度向上を実現した。
対照的に、地震の流行や組織領域のような大規模な特徴はほとんど利益を示さず、SSLの価値は対象の物体の規模に大きく依存していることを強調している。
我々の発見は、SSL設計とオブジェクトサイズとスパーシリティの整合性の必要性を強調し、科学的画像領域にまたがるより効率的な表現学習パイプラインを構築するための一般的な原則を提供する。
関連論文リスト
- Enhancing Semantic Segmentation with Continual Self-Supervised Pre-training [11.897717409259492]
自己教師付き学習(SSL)は、基礎モデルをトレーニングするための中心的なパラダイムとして登場した。
GLAREは,下流セグメンテーション性能の向上を目的とした,新規な自己教師型事前学習タスクである。
論文 参考訳(メタデータ) (2025-09-22T14:11:02Z) - Self-Supervised Learning for Real-World Object Detection: a Survey [1.2224547302812558]
自己監視学習(SSL)はコンピュータビジョンにおいて有望なアプローチとして登場した。
SSLメソッドは、インスタンス識別とMasked Image Modeling(MIM)の2つの主要なカテゴリに分類される。
論文 参考訳(メタデータ) (2024-10-09T21:19:52Z) - Leveraging Task-Specific Knowledge from LLM for Semi-Supervised 3D Medical Image Segmentation [9.778201925906913]
LLM-SegNetは大規模言語モデル(LLM)を利用してタスク固有の知識を協調学習フレームワークに統合する。
一般公開されているLeft Atrium、Pancreas-CT、Brats-19データセットの実験は、最先端技術と比較してLLM-SegNetの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-06T14:23:16Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Learning Where to Learn in Cross-View Self-Supervised Learning [54.14989750044489]
自己教師付き学習(SSL)は大きな進歩を遂げ、教師付き学習との大きなギャップを狭めた。
現在の方法では、埋め込みにピクセルの統一的なアグリゲーションを採用する。
本稿では,特徴の空間情報を適応的に集約する学習方法であるLearning Where to Learn(LEWEL)を提案する。
論文 参考訳(メタデータ) (2022-03-28T17:02:42Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Unveiling the Potential of Structure-Preserving for Weakly Supervised
Object Localization [71.79436685992128]
本稿では,WSOLの畳み込み機能に組み込まれた構造情報を完全に活用するための2段階構造保存アクティベーション(SPA)を提案する。
第1段階では、分類ネットワークによって引き起こされる構造ミス問題を軽減するために制限アクティベーションモジュール(ram)が設計されている。
第2段階では, 自己相関マップ生成(SCG)モジュールと呼ばれるプロセス後アプローチを提案し, 構造保存ローカライゼーションマップを得る。
論文 参考訳(メタデータ) (2021-03-08T03:04:14Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。