論文の概要: More Than Positive and Negative: Communicating Fine Granularity in Medical Diagnosis
- arxiv url: http://arxiv.org/abs/2408.02214v1
- Date: Mon, 5 Aug 2024 03:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 14:36:03.817576
- Title: More Than Positive and Negative: Communicating Fine Granularity in Medical Diagnosis
- Title(参考訳): 肯定的・否定的以上の:医療診断における微粒化のコミュニケーション
- Authors: Xiangyu Peng, Kai Wang, Jianfei Yang, Yingying Zhu, Yang You,
- Abstract要約: 医用画像からの微粒化学習に関する新しいベンチマークを提案する。
具体的には,医学的知識に基づく分類法を考案し,正の症例を非典型的陽性と典型的陽性の2つのサブカテゴリに分けた。
また、トレーニングにおいて粗いラベルのみを用いることで、この問題に対する簡易なリスク変調手法を提案する。
- 参考スコア(独自算出の注目度): 26.199151646318246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advance of deep learning, much progress has been made in building powerful artificial intelligence (AI) systems for automatic Chest X-ray (CXR) analysis. Most existing AI models are trained to be a binary classifier with the aim of distinguishing positive and negative cases. However, a large gap exists between the simple binary setting and complicated real-world medical scenarios. In this work, we reinvestigate the problem of automatic radiology diagnosis. We first observe that there is considerable diversity among cases within the positive class, which means simply classifying them as positive loses many important details. This motivates us to build AI models that can communicate fine-grained knowledge from medical images like human experts. To this end, we first propose a new benchmark on fine granularity learning from medical images. Specifically, we devise a division rule based on medical knowledge to divide positive cases into two subcategories, namely atypical positive and typical positive. Then, we propose a new metric termed AUC$^\text{FG}$ on the two subcategories for evaluation of the ability to separate them apart. With the proposed benchmark, we encourage the community to develop AI diagnosis systems that could better learn fine granularity from medical images. Last, we propose a simple risk modulation approach to this problem by only using coarse labels in training. Empirical results show that despite its simplicity, the proposed method achieves superior performance and thus serves as a strong baseline.
- Abstract(参考訳): ディープラーニングの進歩により、自動チェストX線分析(CXR)のための強力な人工知能(AI)システムの構築に多くの進歩があった。
既存のAIモデルは、正と負のケースを区別するために、バイナリ分類器として訓練されている。
しかし、単純なバイナリ設定と複雑な現実世界の医療シナリオの間には大きなギャップがある。
本研究では,自動放射線診断の問題点を再考する。
まず、正のクラス内のケースにはかなりの多様性があることを観察し、これは単にそれらが多くの重要な詳細を失う正のものとして分類することを意味する。
これは、人間の専門家のような医療画像からきめ細かい知識を伝達できるAIモデルを構築する動機となります。
そこで我々はまず,医用画像からの微粒度学習に関する新しいベンチマークを提案する。
具体的には,医学的知識に基づく分類法を考案し,正の症例を非典型的陽性と典型的陽性の2つのサブカテゴリに分けた。
次に,2つのサブカテゴリに対して,AUC$^\text{FG}$と呼ばれる新しい計量を提案し,それらを分離する能力を評価する。
提案したベンチマークでは、医療画像からより細かい粒度を学習できるAI診断システムの開発をコミュニティに奨励している。
最後に、トレーニングにおいて粗いラベルのみを用いることで、この問題に対する簡単なリスク変調手法を提案する。
実験の結果,提案手法は単純さにもかかわらず優れた性能を示し,強力なベースラインとして機能することがわかった。
関連論文リスト
- The Limits of Fair Medical Imaging AI In The Wild [43.97266228706059]
医療用AIが人口統計エンコーディングをどのように利用するかを検討する。
医療画像AIは、疾患分類において、人口動態のショートカットを利用することを確認した。
人口統計属性のエンコーディングが少ないモデルは、しばしば「グローバルに最適」であることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:59:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Multi-class versus One-class classifier in spontaneous speech analysis
oriented to Alzheimer Disease diagnosis [58.720142291102135]
本研究の目的は,音声信号から抽出した新しいバイオマーカーを用いて自動解析を行うことにより,ADの早期診断と重症度評価の改善に寄与することである。
外付け器とフラクタル次元の機能に関する情報を使用することで、システムの性能が向上する。
論文 参考訳(メタデータ) (2022-03-21T09:57:20Z) - Two-step adversarial debiasing with partial learning -- medical image
case-studies [2.585317375872136]
対象タスクのパフォーマンスを保ちながら、人種的格差を低減できる部分学習を用いた2段階の逆脱バイアス手法を開発した。
この手法は胸部X線とマンモグラフィーの2つの独立した医療画像ケーススタディで評価され、対象のパフォーマンスを維持しながらバイアス低減の可能性を示唆した。
論文 参考訳(メタデータ) (2021-11-16T15:41:33Z) - Deep AUC Maximization for Medical Image Classification: Challenges and
Opportunities [60.079782224958414]
我々は、AUCによる新たな深層学習手法による機会と課題を提示し、議論する(別名、アンダーラインbfディープアンダーラインbfAUC分類)。
論文 参考訳(メタデータ) (2021-11-01T15:31:32Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Unbox the Black-box for the Medical Explainable AI via Multi-modal and
Multi-centre Data Fusion: A Mini-Review, Two Showcases and Beyond [3.4031539425106683]
説明可能な人工知能(XAI)は、AIシステムのブラックボックスの選択方法のアンボックスを目的とした、機械学習の新たな研究トピックである。
機械学習アルゴリズムの多くは、意思決定の方法と理由を明らかにしない。
XAIは、ディープラーニングを利用したアプリケーション、特に医学や医療研究において、ますます重要になっている。
論文 参考訳(メタデータ) (2021-02-03T10:56:58Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - Heterogeneity Loss to Handle Intersubject and Intrasubject Variability
in Cancer [11.440201348567681]
深層学習(DL)モデルは、医学領域において顕著な結果を示している。
これらのAI手法は、開発途上国に安価な医療ソリューションとして大きな支援を提供することができる。
この研究は、そのような血液がん診断の応用に焦点をあてている。
論文 参考訳(メタデータ) (2020-03-06T16:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。