論文の概要: Comparing to Learn: Surpassing ImageNet Pretraining on Radiographs By
Comparing Image Representations
- arxiv url: http://arxiv.org/abs/2007.07423v3
- Date: Wed, 22 Jul 2020 03:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 05:10:30.840447
- Title: Comparing to Learn: Surpassing ImageNet Pretraining on Radiographs By
Comparing Image Representations
- Title(参考訳): 学習と比較して:画像表現の比較による画像ネットワークの事前学習
- Authors: Hong-Yu Zhou and Shuang Yu and Cheng Bian and Yifan Hu and Kai Ma and
Yefeng Zheng
- Abstract要約: そこで本研究では,手動のアノテーションを使わずに700kのラジオグラフから学習する事前学習手法を提案する。
画像表現を比較して頑健な特徴を学習するため,本手法をC2L(Comparing to Learn)と呼ぶ。
実験結果から,C2L は ImageNet の事前学習と過去の最先端アプローチを大きく上回っていることがわかった。
- 参考スコア(独自算出の注目度): 39.08296644280442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In deep learning era, pretrained models play an important role in medical
image analysis, in which ImageNet pretraining has been widely adopted as the
best way. However, it is undeniable that there exists an obvious domain gap
between natural images and medical images. To bridge this gap, we propose a new
pretraining method which learns from 700k radiographs given no manual
annotations. We call our method as Comparing to Learn (C2L) because it learns
robust features by comparing different image representations. To verify the
effectiveness of C2L, we conduct comprehensive ablation studies and evaluate it
on different tasks and datasets. The experimental results on radiographs show
that C2L can outperform ImageNet pretraining and previous state-of-the-art
approaches significantly. Code and models are available.
- Abstract(参考訳): 深層学習時代には,ImageNet事前学習が最適な方法として広く採用されている医療画像解析において,事前学習モデルが重要な役割を担っている。
しかし、自然画像と医用画像の間に明らかな領域ギャップがあることは明らかではない。
このギャップを埋めるために,手動のアノテーションを使わずに700kのラジオグラフから学習する新たな事前学習手法を提案する。
画像表現を比較して頑健な特徴を学習するため,本手法をC2L(Comparing to Learn)と呼ぶ。
c2lの有効性を検証するために,包括的アブレーション研究を行い,異なるタスクやデータセットで評価する。
実験結果から,C2L は ImageNet の事前学習と過去の最先端アプローチを大きく上回っていることがわかった。
コードとモデルは利用可能である。
関連論文リスト
- CROCODILE: Causality aids RObustness via COntrastive DIsentangled LEarning [8.975676404678374]
CROCODILEフレームワークを導入し、因果関係のツールがモデルの堅牢性からドメインシフトを育む方法を示します。
我々はCXRの多ラベル肺疾患分類に750万枚以上の画像を用いて本手法を適用した。
論文 参考訳(メタデータ) (2024-08-09T09:08:06Z) - Source Matters: Source Dataset Impact on Model Robustness in Medical Imaging [14.250975981451914]
我々は、ImageNetとRadImageNetが同等の分類性能を達成することを示す。
ImageNetは、共同ファウンダーに過度にフィットする傾向にある。
ImageNet-pretrained modelを使用する研究者は、モデルを再検討することを推奨する。
論文 参考訳(メタデータ) (2024-03-07T13:36:15Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Annotation Cost Efficient Active Learning for Content Based Image
Retrieval [1.6624384368855525]
アノテーションコスト効率のよいアクティブラーニング(AL)手法(ANNEAL)を提案する。
提案手法は、最も情報性の高い画像対を類似または異種として注釈付けすることにより、トレーニングセットを反復的に強化することを目的としている。
ANNEALのコードはhttps://git.tu-berlin.de/rsim/ANNEALで公開されている。
論文 参考訳(メタデータ) (2023-06-20T15:33:24Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Revisiting Hidden Representations in Transfer Learning for Medical
Imaging [2.4545492329339815]
7つの医学分類課題について,ImageNetとRadImageNetを比較した。
その結果,ImageNetとRadImageNetは直感とは対照的に,異なる中間表現に収束する可能性が示唆された。
その結果, ネットワーク間の微調整前後の類似性は, 性能向上と相関しないことがわかった。
論文 参考訳(メタデータ) (2023-02-16T13:04:59Z) - CLIP-ViP: Adapting Pre-trained Image-Text Model to Video-Language
Representation Alignment [146.3128011522151]
本稿では,CLIP,すなわちCLIP-ViPに基づいて,ビデオプロキシ機構を備えたOmniクロスモーダル学習手法を提案する。
提案手法は,ビデオテキスト検索におけるCLIPの性能を大きなマージンで向上させる。
MSR-VTT, DiDeMo, LSMDC, ActivityNet など,様々なデータセット上でのSOTA結果も得られた。
論文 参考訳(メタデータ) (2022-09-14T05:47:02Z) - VL-LTR: Learning Class-wise Visual-Linguistic Representation for
Long-Tailed Visual Recognition [61.75391989107558]
本稿では,VL-LTRと呼ばれる視覚言語的長尾認識フレームワークを提案する。
本手法は,画像から視覚表現とそれに対応する言語表現を,雑音のあるクラスレベルのテキスト記述から学習することができる。
特に,ImageNet-LTでは77.2%の精度を達成し,従来のベストメソッドよりも17ポイント以上優れていた。
論文 参考訳(メタデータ) (2021-11-26T16:24:03Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Contrastive Learning of Medical Visual Representations from Paired
Images and Text [38.91117443316013]
本研究では,自然発生した記述的ペアリングテキストを活用することで,医用視覚表現を学習するための教師なし戦略であるConVIRTを提案する。
この2つのモダリティ間の双方向のコントラスト的目的を通じて、ペア化されたテキストデータを用いて医療画像エンコーダを事前訓練する手法は、ドメインに依存しないため、追加の専門家による入力は不要である。
論文 参考訳(メタデータ) (2020-10-02T02:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。