論文の概要: Leveraging Imperfection with MEDLEY A Multi-Model Approach Harnessing Bias in Medical AI
- arxiv url: http://arxiv.org/abs/2508.21648v1
- Date: Fri, 29 Aug 2025 14:12:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.06812
- Title: Leveraging Imperfection with MEDLEY A Multi-Model Approach Harnessing Bias in Medical AI
- Title(参考訳): MEDLEYによる欠陥の活用 : 医療AIにおけるバイアスを緩和する多モデルアプローチ
- Authors: Farhad Abtahi, Mehdi Astaraki, Fernando Seoane,
- Abstract要約: 医学人工知能のバイアスは、伝統的に除去を必要とする欠陥と見なされている。
多様な出力を保存しながら複数のAIモデルを編成する概念的フレームワークであるMEDLEYを提案する。
意見の不一致を抑制する従来のアプローチとは異なり、MEDLEYはモデル固有のバイアスを潜在的な強みとして文書化する。
- 参考スコア(独自算出の注目度): 42.798415096963396
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Bias in medical artificial intelligence is conventionally viewed as a defect requiring elimination. However, human reasoning inherently incorporates biases shaped by education, culture, and experience, suggesting their presence may be inevitable and potentially valuable. We propose MEDLEY (Medical Ensemble Diagnostic system with Leveraged diversitY), a conceptual framework that orchestrates multiple AI models while preserving their diverse outputs rather than collapsing them into a consensus. Unlike traditional approaches that suppress disagreement, MEDLEY documents model-specific biases as potential strengths and treats hallucinations as provisional hypotheses for clinician verification. A proof-of-concept demonstrator was developed using over 30 large language models, creating a minimum viable product that preserved both consensus and minority views in synthetic cases, making diagnostic uncertainty and latent biases transparent for clinical oversight. While not yet a validated clinical tool, the demonstration illustrates how structured diversity can enhance medical reasoning under clinician supervision. By reframing AI imperfection as a resource, MEDLEY offers a paradigm shift that opens new regulatory, ethical, and innovation pathways for developing trustworthy medical AI systems.
- Abstract(参考訳): 医学人工知能のバイアスは、伝統的に除去を必要とする欠陥と見なされている。
しかしながら、人間の推論は本質的に教育、文化、経験によって形成される偏見を取り入れており、彼らの存在は避けられ、潜在的に価値がある可能性があることを示唆している。
MEDLEY(Medical Ensemble Diagnostic System with Leveraged diversitY)は,複数のAIモデルを編成する概念的フレームワークである。
意見の不一致を抑制する従来のアプローチとは異なり、MEDLEYはモデル固有のバイアスを潜在的強度として扱い、幻覚を臨床検査のための仮仮説として扱う。
概念実証実証は30以上の大言語モデルを用いて開発され、合成ケースにおけるコンセンサスとマイノリティの両方を保存し、診断の不確かさと潜伏バイアスを臨床的監視のために透過的にする最小限の製品を作り出した。
この実験は、まだ検証された臨床ツールではないが、臨床監督下での医学的推論がいかに構造化された多様性が向上するかを示すものである。
AIの不完全性をリソースとして認識することで、MEDLEYは、信頼できる医療AIシステムを開発するための新しい規制、倫理、革新の道を開くパラダイムシフトを提供する。
関連論文リスト
- On Arbitrary Predictions from Equally Valid Models [49.56463611078044]
モデル多重性(英: Model multiplicity)とは、同じ患者に対して矛盾する予測を認める複数の機械学習モデルを指す。
たとえ小さなアンサンブルであっても、実際は予測的多重性を緩和・緩和できることを示す。
論文 参考訳(メタデータ) (2025-07-25T16:15:59Z) - Uncertainty-Driven Expert Control: Enhancing the Reliability of Medical Vision-Language Models [52.2001050216955]
既存の方法は、モデル構造を調整したり、高品質なデータで微調整したり、好みの微調整によって、医療ビジョン言語モデル(MedVLM)の性能を向上させることを目的としている。
我々は,MedVLMと臨床専門知識の連携を図るために,Expert-Controlled-Free Guidance (Expert-CFG) という,ループ内のエキスパート・イン・ザ・ループフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-12T09:03:30Z) - MediConfusion: Can you trust your AI radiologist? Probing the reliability of multimodal medical foundation models [20.781551849965357]
医用ビジュアル質問回答(VQA)ベンチマークデータセットであるMedConfusionを紹介した。
現状のモデルは、画像のペアによって容易に混同され、それ以外は視覚的に異なっており、医療専門家にとってはっきりと区別されている。
また、医療における信頼性が高く信頼性の高いMLLMの新しい世代の設計に役立つモデル失敗の共通パターンを抽出する。
論文 参考訳(メタデータ) (2024-09-23T18:59:37Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - Representational Ethical Model Calibration [0.7078141380481605]
エピステム・エクイティ(英: Epistem equity)は、意思決定におけるインテリジェンスの比較忠実度である。
その量化の一般的な枠組みは、言うまでもなく、保証は存在しない。
表現倫理モデルのための包括的枠組みを導入する。
論文 参考訳(メタデータ) (2022-07-25T10:33:39Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。