論文の概要: Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications
- arxiv url: http://arxiv.org/abs/2112.08363v1
- Date: Tue, 14 Dec 2021 21:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 11:41:56.064049
- Title: Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications
- Title(参考訳): パフォーマンスか信頼か?
両方ではない。
自己教師付き学習による深部auc最大化による胸部x線診断
- Authors: Siyuan He, Pengcheng Xi, Ashkan Ebadi, Stephane Tremblay, Alexander
Wong
- Abstract要約: ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
- 参考スコア(独自算出の注目度): 72.52228843498193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective representation learning is the key in improving model performance
for medical image analysis. In training deep learning models, a compromise
often must be made between performance and trust, both of which are essential
for medical applications. Moreover, models optimized with cross-entropy loss
tend to suffer from unwarranted overconfidence in the majority class and
over-cautiousness in the minority class. In this work, we integrate a new
surrogate loss with self-supervised learning for computer-aided screening of
COVID-19 patients using radiography images. In addition, we adopt a new
quantification score to measure a model's trustworthiness. Ablation study is
conducted for both the performance and the trust on feature learning methods
and loss functions. Comparisons show that leveraging the new surrogate loss on
self-supervised models can produce label-efficient networks that are both
high-performing and trustworthy.
- Abstract(参考訳): 医用画像解析におけるモデル性能向上の鍵は効果的な表現学習である。
ディープラーニングモデルのトレーニングでは、医療応用に不可欠なパフォーマンスと信頼の妥協がしばしば必要となる。
さらに、クロスエントロピー損失に最適化されたモデルは、多数派における不当な過剰信頼と少数派階級における過慎重さに苦しむ傾向がある。
本研究では,新しいサロゲート損失と自己教師付き学習を統合し,x線画像を用いた新型コロナウイルス患者のコンピュータ支援スクリーニングを行った。
さらに,モデルの信頼性を評価するために,新しい定量化スコアを適用した。
特徴学習法と損失関数に対する性能と信頼の両方についてアブレーション研究を行った。
自己教師型モデルに新たなサロゲート損失を活用することで,高性能かつ信頼性の高いラベル効率の高いネットワークを創出できることを示す。
関連論文リスト
- Less is More: Selective Reduction of CT Data for Self-Supervised Pre-Training of Deep Learning Models with Contrastive Learning Improves Downstream Classification Performance [7.945551345449388]
現在の知見は、医用画像における対照的な事前トレーニングの可能性を示している。
医用画像の類似性は、医用画像領域における対照的な学習の成功を妨げていると仮定する。
医療用事前学習データセットの冗長性を同定・低減するために, 深層埋め込み, 情報理論, ハッシュに基づく様々な戦略を検討する。
論文 参考訳(メタデータ) (2024-10-18T15:08:05Z) - Improved Unet brain tumor image segmentation based on GSConv module and ECA attention mechanism [0.0]
U-Netアーキテクチャに基づく深層学習アルゴリズムである脳腫瘍に対する医用画像分割法の改良モデルについて述べる。
従来のU-Netに基づいて,医療画像分割作業におけるモデルの性能向上を目的としたGSConvモジュールとECAアテンション機構を導入する。
論文 参考訳(メタデータ) (2024-09-20T16:35:19Z) - AI in the Loop -- Functionalizing Fold Performance Disagreement to
Monitor Automated Medical Image Segmentation Pipelines [0.0]
臨床的実践に機械学習を安全に実装するためには、パフォーマンス予測が不十分なことを自動でフラグする手法が不可欠である。
本稿では、異なるデータセットの折りたたみ部で訓練されたサブモデルを用いて、容易に適用可能な手法を提案する。
論文 参考訳(メタデータ) (2023-05-15T21:35:23Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - On visual self-supervision and its effect on model robustness [9.313899406300644]
自己監督はモデルロバスト性を改善することができるが、悪魔が細部にあることが判明した。
自己監督型プレトレーニングは, 対人訓練の改善に効果があるが, 自己監督型プレトレーニングを対人訓練に組み込んだ場合, モデル堅牢性や精度には何の利益も与えない。
論文 参考訳(メタデータ) (2021-12-08T16:22:02Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Evaluating the Robustness of Self-Supervised Learning in Medical Imaging [57.20012795524752]
自己監督は、小さな注釈付きデータセット上でターゲットタスクを訓練する際の効果的な学習戦略であることを示した。
本研究では,自己監視学習によって訓練されたネットワークが,医療画像の文脈における完全監視学習と比較して,堅牢性と汎用性に優れていることを示した。
論文 参考訳(メタデータ) (2021-05-14T17:49:52Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Robust Pre-Training by Adversarial Contrastive Learning [120.33706897927391]
近年の研究では、敵の訓練と統合されると、自己監督型事前訓練が最先端の堅牢性につながることが示されている。
我々は,データ強化と対向的摂動の両面に整合した学習表現により,ロバストネスを意識した自己指導型事前学習を改善する。
論文 参考訳(メタデータ) (2020-10-26T04:44:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。