論文の概要: Machine Learning for Medicine Must Be Interpretable, Shareable, Reproducible and Accountable by Design
- arxiv url: http://arxiv.org/abs/2508.16097v1
- Date: Fri, 22 Aug 2025 05:23:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.255693
- Title: Machine Learning for Medicine Must Be Interpretable, Shareable, Reproducible and Accountable by Design
- Title(参考訳): 医療のための機械学習は、設計によって解釈可能、共有可能、再現可能、説明可能でなければならない
- Authors: Ayyüce Begüm Bektaş, Mithat Gönen,
- Abstract要約: これらの原則は、医学における機械学習アルゴリズムの基本設計基準を形成するべきだと我々は主張する。
我々は、本質的に解釈可能なモデリングアプローチが、不透明なディープネットワークの強力な代替手段としてどのように役立つかについて論じる。
次に、厳密な評価、公平性、不確実性定量化を求めるモデル開発における説明責任について検討する。
- 参考スコア(独自算出の注目度): 0.12891210250935148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper claims that machine learning models deployed in high stakes domains such as medicine must be interpretable, shareable, reproducible and accountable. We argue that these principles should form the foundational design criteria for machine learning algorithms dealing with critical medical data, including survival analysis and risk prediction tasks. Black box models, while often highly accurate, struggle to gain trust and regulatory approval in health care due to a lack of transparency. We discuss how intrinsically interpretable modeling approaches (such as kernel methods with sparsity, prototype-based learning, and deep kernel models) can serve as powerful alternatives to opaque deep networks, providing insight into biomedical predictions. We then examine accountability in model development, calling for rigorous evaluation, fairness, and uncertainty quantification to ensure models reliably support clinical decisions. Finally, we explore how generative AI and collaborative learning paradigms (such as federated learning and diffusion-based data synthesis) enable reproducible research and cross-institutional integration of heterogeneous biomedical data without compromising privacy, hence shareability. By rethinking machine learning foundations along these axes, we can develop medical AI that is not only accurate but also transparent, trustworthy, and translatable to real-world clinical settings.
- Abstract(参考訳): 本稿では,医療などの高利得領域に展開される機械学習モデルは,解釈可能,共有可能,再現可能,説明可能でなければならないと主張している。
これらの原則は、生存分析やリスク予測タスクを含む重要な医療データを扱う機械学習アルゴリズムの基本設計基準を形成するべきだ、と我々は主張する。
ブラックボックスモデルは、しばしば非常に正確であるが、透明性の欠如により、医療における信頼と規制の承認を得るのに苦労している。
本稿では,不透明なディープネットワークの強力な代替手段として,本質的に解釈可能なモデリング手法(疎性を持つカーネルメソッド,プロトタイプベース学習,ディープカーネルモデルなど)が,バイオメディカル予測の洞察を提供する上で,どのように役立つのかを論じる。
次に、厳密な評価、公正性、不確実性定量化を求めるモデル開発における説明責任について検討し、モデルが臨床的決定を確実に支援することを保証する。
最後に、生成型AIと協調学習パラダイム(フェデレーション学習や拡散型データ合成など)が、プライバシを損なうことなく、再現可能な研究や異種生物医学データの相互統合を実現する方法について検討する。
これらの軸に沿って機械学習の基礎を再考することにより、正確で透明性があり、信頼でき、現実の臨床環境に翻訳可能な医療AIを開発することができる。
関連論文リスト
- The challenge of uncertainty quantification of large language models in medicine [0.0]
本研究では,医学応用のための大規模言語モデル(LLM)の不確実性定量化について検討する。
私たちの研究は、不確実性を障壁としてではなく、AI設計に対する動的で反射的なアプローチを招待する知識の不可欠な部分として捉えています。
論文 参考訳(メタデータ) (2025-04-07T17:24:11Z) - Causal Representation Learning from Multimodal Biomedical Observations [57.00712157758845]
バイオメディカルデータセットの理解を容易にするために,マルチモーダルデータに対するフレキシブルな識別条件と原理的手法を開発した。
主要な理論的貢献は、モジュラリティ間の因果関係の構造的空間性である。
実世界のヒト表現型データセットの結果は、確立された生物医学研究と一致している。
論文 参考訳(メタデータ) (2024-11-10T16:40:27Z) - Bayesian Kolmogorov Arnold Networks (Bayesian_KANs): A Probabilistic Approach to Enhance Accuracy and Interpretability [1.90365714903665]
本研究では,Bayesian Kolmogorov Arnold Networks(BKANs)と呼ばれる新しいフレームワークを提案する。
BKANはコルモゴロフ・アーノルドネットワークの表現能力とベイズ推定を組み合わせたものである。
提案手法は,予測信頼度と決定境界に関する有用な知見を提供し,予測精度の観点から従来のディープラーニングモデルより優れている。
論文 参考訳(メタデータ) (2024-08-05T10:38:34Z) - MedISure: Towards Assuring Machine Learning-based Medical Image
Classifiers using Mixup Boundary Analysis [3.1256597361013725]
機械学習(ML)モデルは医療技術に不可欠なものになりつつある。
従来のソフトウェア保証技術は固定コードに依存しており、MLモデルに直接適用されない。
本稿では,予測公正度の観点から画像分類器の評価を容易にするMix-Up Boundary Analysis(MUBA)を提案する。
論文 参考訳(メタデータ) (2023-11-23T12:47:43Z) - COVID-Net Biochem: An Explainability-driven Framework to Building
Machine Learning Models for Predicting Survival and Kidney Injury of COVID-19
Patients from Clinical and Biochemistry Data [66.43957431843324]
我々は、機械学習モデルを構築するための汎用的で説明可能なフレームワークであるCOVID-Net Biochemを紹介する。
この枠組みを用いて、新型コロナウイルス患者の生存率と、入院中に急性腎不全を発症する可能性を予測する。
論文 参考訳(メタデータ) (2022-04-24T07:38:37Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Key Technology Considerations in Developing and Deploying Machine
Learning Models in Clinical Radiology Practice [0.0]
機械学習研究者は、モデルが正確で、堅牢で、実際に利用できるようにするために、認識し、対処しなければならない重要な考慮事項のリストを提案する。
すなわち、不十分なトレーニングデータ、分散データセット、高コストのアノテーション、曖昧な基底真理、クラス表現の不均衡、非対称な誤分類コスト、関連するパフォーマンス指標、モデルから未確認データセットへの一般化、モデル崩壊、逆行攻撃、説明可能性、公正さとバイアス、臨床検証について論じる。
論文 参考訳(メタデータ) (2021-02-03T09:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。