論文の概要: MedISure: Towards Assuring Machine Learning-based Medical Image
Classifiers using Mixup Boundary Analysis
- arxiv url: http://arxiv.org/abs/2311.13978v1
- Date: Thu, 23 Nov 2023 12:47:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 23:42:34.561694
- Title: MedISure: Towards Assuring Machine Learning-based Medical Image
Classifiers using Mixup Boundary Analysis
- Title(参考訳): MedISure: 混合境界解析を用いた機械学習に基づく医用画像分類支援
- Authors: Adam Byfield, William Poulett, Ben Wallace, Anusha Jose, Shatakshi
Tyagi, Smita Shembekar, Adnan Qayyum, Junaid Qadir, and Muhammad Bilal
- Abstract要約: 機械学習(ML)モデルは医療技術に不可欠なものになりつつある。
従来のソフトウェア保証技術は固定コードに依存しており、MLモデルに直接適用されない。
本稿では,予測公正度の観点から画像分類器の評価を容易にするMix-Up Boundary Analysis(MUBA)を提案する。
- 参考スコア(独自算出の注目度): 3.1256597361013725
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) models are becoming integral in healthcare
technologies, presenting a critical need for formal assurance to validate their
safety, fairness, robustness, and trustworthiness. These models are inherently
prone to errors, potentially posing serious risks to patient health and could
even cause irreparable harm. Traditional software assurance techniques rely on
fixed code and do not directly apply to ML models since these algorithms are
adaptable and learn from curated datasets through a training process. However,
adapting established principles, such as boundary testing using synthetic test
data can effectively bridge this gap. To this end, we present a novel technique
called Mix-Up Boundary Analysis (MUBA) that facilitates evaluating image
classifiers in terms of prediction fairness. We evaluated MUBA for two
important medical imaging tasks -- brain tumour classification and breast
cancer classification -- and achieved promising results. This research aims to
showcase the importance of adapting traditional assurance principles for
assessing ML models to enhance the safety and reliability of healthcare
technologies. To facilitate future research, we plan to publicly release our
code for MUBA.
- Abstract(参考訳): 機械学習(ml)モデルは医療技術に不可欠なものになってきており、安全性、公平性、堅牢性、信頼性を検証するための公式な保証が求められている。
これらのモデルは本質的にエラーを起こしやすいため、患者の健康に深刻なリスクを及ぼす可能性がある。
従来のソフトウェア保証技術は固定コードに依存しており、これらのアルゴリズムはトレーニングプロセスを通じてキュレートされたデータセットから適応および学習できるため、mlモデルに直接適用されない。
しかし、合成テストデータを用いた境界試験のような確立された原則を適用することで、このギャップを効果的に埋めることができる。
そこで,本稿では,画像分類器の予測フェアネスの評価を容易にするmix-up boundary analysis (muba) という手法を提案する。
脳腫瘍の分類と乳癌の分類という2つの重要な医療画像診断課題について評価し,有望な結果を得た。
本研究の目的は、医療技術の安全性と信頼性を高めるため、MLモデルの評価に従来の保証原則を適用することの重要性を明らかにすることである。
今後の研究を促進するため、MUBAのコードを公開する予定です。
関連論文リスト
- Empowering Healthcare through Privacy-Preserving MRI Analysis [3.6394715554048234]
本稿では,Ensemble-Based Federated Learning (EBFL)フレームワークを紹介する。
EBFLフレームワークは、機密性の高い患者データを共有することよりも、モデルの特徴を強調することによって、従来のアプローチから逸脱する。
グリオーマ,髄膜腫,下垂体,非腫瘍例などの脳腫瘍の分類において,有意な精度が得られた。
論文 参考訳(メタデータ) (2024-03-14T19:51:18Z) - Evaluation of Predictive Reliability to Foster Trust in Artificial
Intelligence. A case study in Multiple Sclerosis [0.34473740271026115]
機械学習の失敗のスポッティングは、ML予測を使用して臨床上の決定を下す場合、最重要事項である。
我々は,任意のMLモデルのデプロイメントフェーズで使用可能なシンプルなアプローチを提案し,予測を信頼するか否かを提案する。
本手法は,デプロイメント中のML障害の可能性を見極めることによって,臨床医に効果的な支援を提供することを約束する。
論文 参考訳(メタデータ) (2024-02-27T14:48:07Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Uncertainty-informed Mutual Learning for Joint Medical Image
Classification and Segmentation [27.67559996444668]
本稿では,医療画像解析の信頼性と解釈が可能な新しいUML(Uncertainty-informed Mutual Learning)フレームワークを提案する。
本フレームワークは, 相互学習を不確実性に活用し, 性能向上を図ることを目的として, 共同分類とセグメンテーションタスクに信頼性を導入している。
我々は,より信頼性が高く説明可能な医用画像解析モデルの開発を探求する可能性を持っている。
論文 参考訳(メタデータ) (2023-03-17T15:23:15Z) - Interpretability from a new lens: Integrating Stratification and Domain
knowledge for Biomedical Applications [0.0]
本稿では, バイオメディカル問題データセットの k-fold cross-validation (CV) への階層化のための新しい計算手法を提案する。
このアプローチはモデルの安定性を改善し、信頼を確立し、トレーニングされたIMLモデルによって生成された結果の説明を提供する。
論文 参考訳(メタデータ) (2023-03-15T12:02:02Z) - Safe AI for health and beyond -- Monitoring to transform a health
service [51.8524501805308]
機械学習アルゴリズムの出力を監視するために必要なインフラストラクチャを評価する。
モデルのモニタリングと更新の例を示す2つのシナリオを提示します。
論文 参考訳(メタデータ) (2023-03-02T17:27:45Z) - Detecting Shortcut Learning for Fair Medical AI using Shortcut Testing [62.9062883851246]
機械学習は医療の改善に大いに貢献するが、その利用が健康格差を広めたり増幅したりしないことを確実にすることは重要である。
アルゴリズムの不公平性の潜在的な要因の1つ、ショートカット学習は、トレーニングデータにおける不適切な相関に基づいてMLモデルが予測した時に発生する。
マルチタスク学習を用いて,臨床MLシステムの公平性評価の一環として,ショートカット学習の評価と緩和を行う手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:35:38Z) - Distillation to Enhance the Portability of Risk Models Across
Institutions with Large Patient Claims Database [12.452703677540505]
可読性予測モデルのクロスサイト評価によるモデルポータビリティの実現性について検討する。
再帰型ニューラルネットワークを自己注意で拡張し、専門家の特徴とブレンドして、可読性予測モデルを構築する。
実験の結果、ある機関で訓練・試験されたMLモデルの直接適用は、同一施設で訓練・試験されたMLモデルよりも悪い結果が得られた。
論文 参考訳(メタデータ) (2022-07-06T05:26:32Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。