論文の概要: Self-supervised Multi-scale Consistency for Weakly Supervised
Segmentation Learning
- arxiv url: http://arxiv.org/abs/2108.11900v1
- Date: Thu, 26 Aug 2021 16:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-27 13:58:31.625310
- Title: Self-supervised Multi-scale Consistency for Weakly Supervised
Segmentation Learning
- Title(参考訳): 弱教師付きセグメンテーション学習のための自己教師付きマルチスケール一貫性
- Authors: Gabriele Valvano, Andrea Leo, Sotirios A. Tsaftaris
- Abstract要約: 弱い教師付き学習は機械学習モデルを最適化することを目的としています。
我々は,新たな自己監督型マルチスケール整合性損失を導入する。
いくつかの医学的および非医学的データセットに最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 10.647970046084916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collecting large-scale medical datasets with fine-grained annotations is
time-consuming and requires experts. For this reason, weakly supervised
learning aims at optimising machine learning models using weaker forms of
annotations, such as scribbles, which are easier and faster to collect.
Unfortunately, training with weak labels is challenging and needs
regularisation. Herein, we introduce a novel self-supervised multi-scale
consistency loss, which, coupled with an attention mechanism, encourages the
segmentor to learn multi-scale relationships between objects and improves
performance. We show state-of-the-art performance on several medical and
non-medical datasets. The code used for the experiments is available at
https://vios-s.github.io/multiscale-pyag.
- Abstract(参考訳): 詳細なアノテーションによる大規模な医療データセットの収集には時間がかかり、専門家が必要です。
そのため、弱い教師付き学習は、スクリブルのようなより弱い形式のアノテーションを使って機械学習モデルを最適化することを目的としており、より簡単かつ迅速に収集できる。
残念ながら、弱いラベルでのトレーニングは困難で、定期化が必要です。
本稿では,注目機構と組み合わさって,セグメンタがオブジェクト間のマルチスケール関係を学習し,性能を向上する,新たな自己教師型マルチスケール一貫性損失を提案する。
いくつかの医学的および非医学的データセットに最先端のパフォーマンスを示す。
実験に使用されたコードはhttps://vios-s.github.io/multiscale-pyag.com/で入手できる。
関連論文リスト
- Guidelines for Cerebrovascular Segmentation: Managing Imperfect Annotations in the context of Semi-Supervised Learning [3.231698506153459]
教師付き学習法は、十分な量のラベル付きデータを入力した場合に優れた性能を達成する。
このようなラベルは一般的に、非常に時間がかかり、エラーが発生し、製造コストがかかる。
半教師付き学習アプローチはラベル付きデータとラベルなしデータの両方を活用する。
論文 参考訳(メタデータ) (2024-04-02T09:31:06Z) - Many tasks make light work: Learning to localise medical anomalies from
multiple synthetic tasks [2.912977051718473]
シングルクラスモデリングとアウト・オブ・ディストリビューション検出への関心が高まっている。
完全な教師付き機械学習モデルは、トレーニングに含まれていないクラスを確実に識別することはできない。
我々は,複数の視覚的に識別可能な合成異常学習タスクを,トレーニングと検証の両方に利用している。
論文 参考訳(メタデータ) (2023-07-03T09:52:54Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - Dynamic Supervisor for Cross-dataset Object Detection [52.95818230087297]
オブジェクト検出タスクにおけるデータセット間のトレーニングは、データセットにまたがるカテゴリ内の不整合が、完全に教師付き学習を半教師付き学習に変換するため、複雑である。
本稿では,ハードラベルとソフトラベルを併用した複数更新サブモデルを用いて,アノテーションを複数回更新する動的スーパーバイザフレームワークを提案する。
最終生成アノテーションでは、ハードラベルトレーニングとソフトラベルトレーニングを統合することで、リコールと精度が大幅に向上した。
論文 参考訳(メタデータ) (2022-04-01T03:18:46Z) - A Teacher-Student Framework for Semi-supervised Medical Image
Segmentation From Mixed Supervision [62.4773770041279]
そこで我々は,臓器と病変のセグメンテーションのための教師と学生のスタイルに基づくセミ教師付き学習フレームワークを開発した。
我々は,本モデルがバウンディングボックスの品質に対して堅牢であることを示し,フル教師付き学習手法と比較した性能を実現する。
論文 参考訳(メタデータ) (2020-10-23T07:58:20Z) - Going to Extremes: Weakly Supervised Medical Image Segmentation [12.700841704699615]
セグメンテーションモデルをトレーニングするために、極端点クリックという形で最小限のユーザインタラクションを使うことを提案する。
ランダムウォーカアルゴリズムを利用した極端点に基づいて初期セグメンテーションを生成する。
この初期セグメンテーションは、完全な畳み込みネットワークを訓練するためにノイズの多い監視信号として使用される。
論文 参考訳(メタデータ) (2020-09-25T00:28:10Z) - Learning to Segment from Scribbles using Multi-scale Adversarial
Attention Gates [16.28285034098361]
弱い教師付き学習は、スクリブルのような弱いアノテーション形式に依存してモデルを訓練することができる。
我々は、複数の解像度でリアルなセグメンテーションマスクを生成するために、マルチスケールのGANをトレーニングし、スクリブルを使用して画像中の正しい位置を学習する。
モデルの成功の中心は、敵の信号が先行した形状として振る舞うことを条件とした、新しいアテンションゲーティング機構である。
論文 参考訳(メタデータ) (2020-07-02T14:39:08Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Semi-supervised few-shot learning for medical image segmentation [21.349705243254423]
大規模な注釈付きデータセットの必要性を緩和する最近の試みは、数ショットの学習パラダイムの下でトレーニング戦略を開発した。
セマンティックセグメンテーションのための新しい数発の学習フレームワークを提案し,各エピソードでラベルのない画像も利用できるようにした。
エピソードトレーニングにおけるラベルなしのサロゲートタスクを含めると、より強力な特徴表現がもたらされることを示す。
論文 参考訳(メタデータ) (2020-03-18T20:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。