論文の概要: CAiD: Context-Aware Instance Discrimination for Self-supervised Learning
in Medical Imaging
- arxiv url: http://arxiv.org/abs/2204.07344v1
- Date: Fri, 15 Apr 2022 06:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 12:16:38.673826
- Title: CAiD: Context-Aware Instance Discrimination for Self-supervised Learning
in Medical Imaging
- Title(参考訳): caid: 医療画像における自己教師あり学習のための文脈対応インスタンス識別
- Authors: Mohammad Reza Hosseinzadeh Taher, Fatemeh Haghighi, Michael B. Gotway,
Jianming Liang
- Abstract要約: コンテキスト対応インスタンス識別(CAiD)は、医療画像におけるインスタンス識別学習を改善することを目的としている。
CAiDは、様々なローカルコンテキストから符号化された、より細分化した情報を提供する。
オープンサイエンスとして、すべてのコードと事前トレーニングされたモデルは、GitHubのページで利用可能です。
- 参考スコア(独自算出の注目度): 7.137224324997715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, self-supervised instance discrimination methods have achieved
significant success in learning visual representations from unlabeled
photographic images. However, given the marked differences between photographic
and medical images, the efficacy of instance-based objectives, focusing on
learning the most discriminative global features in the image (i.e., wheels in
bicycle), remains unknown in medical imaging. Our preliminary analysis showed
that high global similarity of medical images in terms of anatomy hampers
instance discrimination methods for capturing a set of distinct features,
negatively impacting their performance on medical downstream tasks. To
alleviate this limitation, we have developed a simple yet effective
self-supervised framework, called Context-Aware instance Discrimination (CAiD).
CAiD aims to improve instance discrimination learning by providing finer and
more discriminative information encoded from a diverse local context of
unlabeled medical images. We conduct a systematic analysis to investigate the
utility of the learned features from a three-pronged perspective: (i)
generalizability and transferability, (ii) separability in the embedding space,
and (iii) reusability. Our extensive experiments demonstrate that CAiD (1)
enriches representations learned from existing instance discrimination methods;
(2) delivers more discriminative features by adequately capturing finer
contextual information from individual medial images; and (3) improves
reusability of low/mid-level features compared to standard instance
discriminative methods. As open science, all codes and pre-trained models are
available on our GitHub page: https://github.com/JLiangLab/CAiD.
- Abstract(参考訳): 近年,自己教師付きインスタンス識別手法が,ラベルなしの写真画像から視覚的表現を学習することに成功した。
しかし、写真画像と医療画像の顕著な違いを考えると、画像の最も差別的なグローバル特徴(例えば、自転車の車輪)を学ぶことに焦点を当てたインスタンスベースの目的の有効性は、医療画像においてまだ不明である。
予備分析の結果,解剖学的ハマース・インスタンス識別手法による医用画像のグローバルな類似性は,医学的下流課題における評価に悪影響を及ぼすことが明らかとなった。
この制限を緩和するため、我々はContext-Aware instance Discrimination (CAiD)と呼ばれるシンプルだが効果的な自己管理フレームワークを開発した。
CAiDは、多様なローカルな医療画像から符号化された、より細かな、より差別的な情報を提供することで、インスタンス識別学習を改善することを目的としている。
3つの視点から学習特徴の有用性を検討するために体系的な分析を行う。
(i)一般化可能性及び移転可能性
(ii)埋め込み空間における分離性、及び
(iii)再利用性。
本研究では,(1)既存のインスタンス識別手法から学習した表現を豊かにし,(2)個々のメディア画像からより微細なコンテキスト情報を適切に取得して,より差別的な特徴を提供する,(3)標準のインスタンス識別手法と比較して,低レベルの特徴の再利用性を向上させる,という実験を行った。
オープンサイエンスとして、すべてのコードと事前トレーニングされたモデルはGitHubのページで利用可能です。
関連論文リスト
- Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Hierarchical discriminative learning improves visual representations of
biomedical microscopy [35.521563469534264]
HiDiscは、基礎となるがんの診断の特徴を暗黙的に学習するデータ駆動方式である。
HiDiscの事前訓練は、癌診断と遺伝的突然変異予測のための最先端の自己管理事前訓練方法より優れている。
論文 参考訳(メタデータ) (2023-03-02T22:04:42Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - On Fairness of Medical Image Classification with Multiple Sensitive
Attributes via Learning Orthogonal Representations [29.703978958553247]
本稿では,多感性属性に対する公正表現学習のための新しい手法を提案する。
提案手法の有効性は,CheXpertデータセット上での実験により実証された。
論文 参考訳(メタデータ) (2023-01-04T08:11:11Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Learning Discriminative Representation via Metric Learning for
Imbalanced Medical Image Classification [52.94051907952536]
本稿では,特徴抽出器がより識別的な特徴表現を抽出するのを助けるために,2段階フレームワークの第1段階にメトリック学習を組み込むことを提案する。
主に3つの医用画像データセットを用いて実験したところ、提案手法は既存の1段階と2段階のアプローチより一貫して優れていた。
論文 参考訳(メタデータ) (2022-07-14T14:57:01Z) - DiRA: Discriminative, Restorative, and Adversarial Learning for
Self-supervised Medical Image Analysis [7.137224324997715]
DiRAは差別的、再帰的、敵対的な学習を統一するフレームワークである。
セマンティック表現学習のために、ラベルのない医用画像から補完的な視覚情報を抽出する。
論文 参考訳(メタデータ) (2022-04-21T23:52:52Z) - Towards better understanding and better generalization of few-shot
classification in histology images with contrastive learning [7.620702640026243]
ナチュラル・イメージに長年定着した話題は少ないが、ヒストロジカル・イメージに携わる作品はほとんどない。
本稿では,LCL(Contrative Learning)とLA(Latent Augmentation)を併用して,数ショットのシステムを構築することを提案する。
実験では, CLが学習したモデルは, 未知のクラスにおける組織像の教師あり学習よりも一般化し, LAはベースラインよりも一貫した利得をもたらすことがわかった。
論文 参考訳(メタデータ) (2022-02-18T07:48:34Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Collaborative Unsupervised Domain Adaptation for Medical Image Diagnosis [102.40869566439514]
我々は、Unsupervised Domain Adaptation (UDA)を通じて、対象タスクにおける学習を支援するために、関連ドメインからの豊富なラベル付きデータを活用しようとしている。
クリーンなラベル付きデータやサンプルを仮定するほとんどのUDAメソッドが等しく転送可能であるのとは異なり、協調的教師なしドメイン適応アルゴリズムを革新的に提案する。
提案手法の一般化性能を理論的に解析し,医用画像と一般画像の両方で実験的に評価する。
論文 参考訳(メタデータ) (2020-07-05T11:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。