論文の概要: PRECISe : Prototype-Reservation for Explainable Classification under Imbalanced and Scarce-Data Settings
- arxiv url: http://arxiv.org/abs/2408.05754v1
- Date: Sun, 11 Aug 2024 12:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 15:37:52.242392
- Title: PRECISe : Prototype-Reservation for Explainable Classification under Imbalanced and Scarce-Data Settings
- Title(参考訳): PreCISe : 不均衡およびスカースデータ設定による説明可能な分類のためのプロトタイプ保存
- Authors: Vaibhav Ganatra, Drishti Goel,
- Abstract要約: PreCISeは,3つの課題すべてに対処するために,簡潔に構築された説明可能な設計モデルである。
PreCISeは、マイノリティクラスへのデータ効率的な一般化において、現在の最先端メソッドよりも優れています。
ケーススタディでは、モデルが容易に解釈可能な予測を生成する能力を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models used for medical image classification tasks are often constrained by the limited amount of training data along with severe class imbalance. Despite these problems, models should be explainable to enable human trust in the models' decisions to ensure wider adoption in high-risk situations. In this paper, we propose PRECISe, an explainable-by-design model meticulously constructed to concurrently address all three challenges. Evaluation on 2 imbalanced medical image datasets reveals that PRECISe outperforms the current state-of-the-art methods on data efficient generalization to minority classes, achieving an accuracy of ~87% in detecting pneumonia in chest x-rays upon training on <60 images only. Additionally, a case study is presented to highlight the model's ability to produce easily interpretable predictions, reinforcing its practical utility and reliability for medical imaging tasks.
- Abstract(参考訳): 医用画像分類タスクに使用されるディープラーニングモデルは、厳しいクラス不均衡を伴う訓練データの限られた量によって制約されることが多い。
これらの問題にもかかわらず、モデルは、高リスクな状況においてより広く採用されることを保証するために、モデルの決定に対する人間の信頼を可能にするために説明可能であるべきである。
本稿では,3つの課題すべてに対処するために,簡潔に構築された説明可能な設計モデルであるPreCISeを提案する。
2つの不均衡な医用画像データセットの評価では、PreCISeは、60画像のみのトレーニングで胸部X線肺炎の検出において、約87%の精度で、マイノリティクラスへのデータ効率的な一般化において、現在の最先端の手法よりも優れていることが示されている。
さらに,このモデルが容易に解釈可能な予測を生成できる能力を強調し,医療画像タスクの実用性と信頼性を向上するケーススタディも提示した。
関連論文リスト
- Trustworthy image-to-image translation: evaluating uncertainty calibration in unpaired training scenarios [0.0]
マンモグラフィスクリーニングは乳がんの検出に有効な方法であり、早期診断を容易にする。
ディープニューラルネットワークはいくつかの研究で有効であることが示されているが、その傾向は一般化と誤診のリスクをかなり残している。
汎用性を向上させるために、未ペア型ニューラルスタイル転送モデルに基づくデータ拡張スキームが提案されている。
3つのオープンアクセスマンモグラフィーデータセットと1つの非医療画像データセットから解析した画像パッチを用いて、それらの性能を評価する。
論文 参考訳(メタデータ) (2025-01-29T11:09:50Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Text-guided Foundation Model Adaptation for Long-Tailed Medical Image Classification [4.6651139122498]
医学的文脈では、まれな疾患のラベルの少ない長いデータセットにおける不均衡なデータ分布は、ディープラーニングモデルの診断精度を著しく損なう。
最近のマルチモーダルテキスト画像管理基盤モデルは、効率的な表現学習を通じて、データの不足に対する新しい解決策を提供する。
長期医療画像分類のための新しいテキスト誘導基礎モデル適応法(TFA-LT)を提案する。
提案手法は27.1%の精度向上を実現し,本領域における基礎モデル適用の可能性を強調した。
論文 参考訳(メタデータ) (2024-08-27T04:18:18Z) - Towards a Transportable Causal Network Model Based on Observational
Healthcare Data [1.333879175460266]
本稿では,選択図,不足グラフ,因果発見,事前知識を1つのグラフィカルモデルに組み合わせた新しい手法を提案する。
このモデルは、患者の2つの異なるコホートからなるデータから学習する。
結果として得られた因果ネットワークモデルは、リスク評価、正確性、説明可能性の観点から専門家臨床医によって検証される。
論文 参考訳(メタデータ) (2023-11-13T13:23:31Z) - Interpretable Medical Image Classification using Prototype Learning and
Privileged Information [0.0]
解釈可能性はしばしば医療画像に必須の要件である。
本研究では,学習プロセスで利用可能な追加情報を用いて,理解しやすく強力なモデルを構築することができるかを検討する。
本稿では,カプセルネットワーク,プロトタイプ学習,特権情報の利用といったメリットを活用する,Proto-Capsと呼ばれる革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-24T11:28:59Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Generative models improve fairness of medical classifiers under
distribution shifts [49.10233060774818]
データから現実的な拡張を自動的に学習することは、生成モデルを用いてラベル効率の良い方法で可能であることを示す。
これらの学習の強化は、モデルをより堅牢で統計的に公平に配布できることを示した。
論文 参考訳(メタデータ) (2023-04-18T18:15:38Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。