論文の概要: DiRA: Discriminative, Restorative, and Adversarial Learning for
Self-supervised Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2204.10437v1
- Date: Thu, 21 Apr 2022 23:52:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 14:19:55.814260
- Title: DiRA: Discriminative, Restorative, and Adversarial Learning for
Self-supervised Medical Image Analysis
- Title(参考訳): DiRA:自己監督型医用画像解析のための差別的・再帰的・敵対的学習
- Authors: Fatemeh Haghighi, Mohammad Reza Hosseinzadeh Taher, Michael B. Gotway,
Jianming Liang
- Abstract要約: DiRAは差別的、再帰的、敵対的な学習を統一するフレームワークである。
セマンティック表現学習のために、ラベルのない医用画像から補完的な視覚情報を抽出する。
- 参考スコア(独自算出の注目度): 7.137224324997715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discriminative learning, restorative learning, and adversarial learning have
proven beneficial for self-supervised learning schemes in computer vision and
medical imaging. Existing efforts, however, omit their synergistic effects on
each other in a ternary setup, which, we envision, can significantly benefit
deep semantic representation learning. To realize this vision, we have
developed DiRA, the first framework that unites discriminative, restorative,
and adversarial learning in a unified manner to collaboratively glean
complementary visual information from unlabeled medical images for fine-grained
semantic representation learning. Our extensive experiments demonstrate that
DiRA (1) encourages collaborative learning among three learning ingredients,
resulting in more generalizable representation across organs, diseases, and
modalities; (2) outperforms fully supervised ImageNet models and increases
robustness in small data regimes, reducing annotation cost across multiple
medical imaging applications; (3) learns fine-grained semantic representation,
facilitating accurate lesion localization with only image-level annotation; and
(4) enhances state-of-the-art restorative approaches, revealing that DiRA is a
general mechanism for united representation learning. All code and pre-trained
models are available at https: //github.com/JLiangLab/DiRA.
- Abstract(参考訳): 認知的学習、回復的学習、および敵対的学習は、コンピュータビジョンおよび医用イメージングにおける自己教師あり学習スキームに有用であることが証明されている。
しかし,既存の取り組みは,3次設定で相互に相乗効果を排除し,より深い意味表現学習の恩恵を享受できると考えている。
このビジョンを実現するために我々は,非ラベル医用画像から相補的な視覚情報を協調的に抽出し,詳細な意味表現学習を行う最初のフレームワークであるdiraを開発した。
Our extensive experiments demonstrate that DiRA (1) encourages collaborative learning among three learning ingredients, resulting in more generalizable representation across organs, diseases, and modalities; (2) outperforms fully supervised ImageNet models and increases robustness in small data regimes, reducing annotation cost across multiple medical imaging applications; (3) learns fine-grained semantic representation, facilitating accurate lesion localization with only image-level annotation; and (4) enhances state-of-the-art restorative approaches, revealing that DiRA is a general mechanism for united representation learning.
すべてのコードと事前訓練されたモデルはhttps: //github.com/JLiangLab/DiRAで利用可能である。
関連論文リスト
- Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - A Knowledge-based Learning Framework for Self-supervised Pre-training
Towards Enhanced Recognition of Medical Images [14.304996977665212]
本研究では,医用画像の認識向上に向けた知識ベース学習フレームワークを提案する。
コントラスト学習と生成学習モデルを相乗化することで、3つのフェーズで機能する。
提案したフレームワークは、AUC/DiceのSimCLRよりも2.08, 1.23, 1.12, 0.76, 1.38ポイント改善された自己教師型ベンチマークで統計的に優れている。
論文 参考訳(メタデータ) (2022-11-27T03:58:58Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - CAiD: Context-Aware Instance Discrimination for Self-supervised Learning
in Medical Imaging [7.137224324997715]
コンテキスト対応インスタンス識別(CAiD)は、医療画像におけるインスタンス識別学習を改善することを目的としている。
CAiDは、様々なローカルコンテキストから符号化された、より細分化した情報を提供する。
オープンサイエンスとして、すべてのコードと事前トレーニングされたモデルは、GitHubのページで利用可能です。
論文 参考訳(メタデータ) (2022-04-15T06:45:10Z) - Preservational Learning Improves Self-supervised Medical Image Models by
Reconstructing Diverse Contexts [58.53111240114021]
本稿では,自己監督型医療表現学習のためのPCRLについて紹介する。
PCRLは、事前学習ファインタニングプロトコルの下で非常に競争力のある結果をもたらし、5つの分類/分類タスクにおいて、自己監督的および監督的双方を上回っている。
論文 参考訳(メタデータ) (2021-09-09T16:05:55Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。