論文の概要: CASS: Cross Architectural Self-Supervision for Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2206.04170v1
- Date: Wed, 8 Jun 2022 21:25:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 12:42:17.508470
- Title: CASS: Cross Architectural Self-Supervision for Medical Image Analysis
- Title(参考訳): CASS:医療画像分析のためのクロスアーキテクチャセルフスーパービジョン
- Authors: Pranav Singh, Elena Sizikova, Jacopo Cirrone
- Abstract要約: textbfCross textbfArchitectural - textbfSelf textbfSupervision。
トランスフォーマーとCNNを同時に活用する、新たな自己教師型学習アプローチは、簡単に利用可能なクラウドサービスを通じて、一般の実践者にも計算的にアクセスすることができる。
従来の最先端の自己教師型学習手法と比較して,CASSトレーニングCNNを実証的に示し,100%ラベル付きデータで平均8.5%,10%ラベル付きデータで7.3%,11.5を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in Deep Learning and Computer Vision have alleviated many of
the bottlenecks, allowing algorithms to be label-free with better performance.
Specifically, Transformers provide a global perspective of the image, which
Convolutional Neural Networks (CNN) lack by design. Here we present
\textbf{C}ross \textbf{A}rchitectural - \textbf{S}elf \textbf{S}upervision , a
novel self-supervised learning approach which leverages transformers and CNN
simultaneously, while also being computationally accessible to general
practitioners via easily available cloud services. Compared to existing
state-of-the-art self-supervised learning approaches, we empirically show CASS
trained CNNs, and Transformers gained an average of 8.5\% with 100\% labelled
data, 7.3\% with 10\% labelled data, and 11.5\% with 1\% labelled data, across
three diverse datasets. Notably, one of the employed datasets included
histopathology slides of an autoimmune disease, a topic underrepresented in
Medical Imaging and has minimal data. In addition, our findings reveal that
CASS is twice as efficient as other state-of-the-art methods in terms of
training time.
- Abstract(参考訳): 近年のDeep LearningとComputer Visionの進歩はボトルネックの多くを緩和し、より良いパフォーマンスでアルゴリズムをラベルフリーにしている。
具体的には、Transformerはイメージのグローバルな視点を提供し、CNN(Convolutional Neural Networks)は設計によって欠落している。
ここでは、変換器とCNNを同時に活用する新たな自己教師型学習アプローチである、簡単なクラウドサービスを通じて一般の実践者に対して計算的にアクセス可能な、‘textbf{C}ross \textbf{A}rchitectural - \textbf{S}elf \textbf{S}upervision’を提案する。
既存の最先端の自己教師付き学習手法と比較して,cass訓練されたcnnを経験的に示し,100\%のラベル付きデータで平均8.5\%,10\%のラベル付きデータで7.3\%,1\%のラベル付きデータで11.5\%のトランスフォーマーを得た。
中でも注目に値するのは,自己免疫疾患の病理組織学的所見であり,医療画像では軽視され,データも少ない点である。
また,cassは他の最先端手法に比べてトレーニング時間において2倍効率が良いことが判明した。
関連論文リスト
- Efficient Representation Learning for Healthcare with
Cross-Architectural Self-Supervision [5.439020425819001]
この課題に対応するために、クロスアーキテクチャー・セルフスーパービジョン(CASS)を紹介します。
そこで,CASSで訓練されたCNNとTransformerは,4つの多様な医療データセットにおいて,既存の自己教師型学習方法よりも優れていることを示す。
また、CASSはバッチサイズの変化やエポックの事前訓練にかなり堅牢であることを示し、医療アプリケーションにおける機械学習の候補として適している。
論文 参考訳(メタデータ) (2023-08-19T15:57:19Z) - One-Shot Learning for Periocular Recognition: Exploring the Effect of
Domain Adaptation and Data Bias on Deep Representations [59.17685450892182]
広範に使用されているCNNモデルにおける深部表現の挙動をワンショット近視認識のための極端データ不足下で検討する。
我々は、バイオメトリックデータセットで訓練されたネットワークを数百万の画像で活用し、最先端の結果を改善した。
SIFTのような従来のアルゴリズムは、限られたデータでCNNより優れている。
論文 参考訳(メタデータ) (2023-07-11T09:10:16Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Cross-Architectural Positive Pairs improve the effectiveness of
Self-Supervised Learning [0.0]
Cross Architectural - Self Supervision (CASS)は、TransformerとCNNを同時に活用する、新しい自己教師型学習アプローチである。
CASSでトレーニングされたCNNとTransformerは、4つの多様なデータセットにまたがって平均3.8%のラベル付きデータを得た。
また、CASSは、既存の最先端の自己教師型学習アプローチよりも、バッチサイズやトレーニングエポックの変化に対して、はるかに堅牢であることも示しています。
論文 参考訳(メタデータ) (2023-01-27T23:27:24Z) - Learning from few examples: Classifying sex from retinal images via deep
learning [3.9146761527401424]
基礎画像から患者の性別を分類するために,小データセット上でのDLの性能について紹介する。
約2500基の画像を用いて開発した本モデルでは,最大0.72点のAUCスコアが得られた。
これは、データセットサイズが1000倍近く減少しているにもかかわらず、わずか25%のパフォーマンス低下に相当する。
論文 参考訳(メタデータ) (2022-07-20T02:47:29Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - Self supervised contrastive learning for digital histopathology [0.0]
我々はSimCLRと呼ばれる対照的な自己教師型学習手法を用いて、自然シーン画像の最先端結果を得た。
異なる種類の染色特性と分解特性とを組み合わせることで,学習した特徴の質が向上することがわかった。
学習した機能に基づいてトレーニングされた線形分類器は、デジタル病理学データセットで事前トレーニングされたネットワークが、ImageNet事前トレーニングされたネットワークよりも優れたパフォーマンスを示すことを示している。
論文 参考訳(メタデータ) (2020-11-27T19:18:45Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。