論文の概要: Detecting algorithmic bias in medical AI-models
- arxiv url: http://arxiv.org/abs/2312.02959v2
- Date: Wed, 6 Dec 2023 20:57:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 11:19:18.377972
- Title: Detecting algorithmic bias in medical AI-models
- Title(参考訳): 医療aiモデルにおけるアルゴリズムバイアスの検出
- Authors: Jeffrey Smith, Andre Holder, Rishikesan Kamaleswaran, Yao Xie
- Abstract要約: 本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデルにおける潜在的なバイアスを,特に敗血症予測の文脈で効果的に同定する。
AIベースの医療判断における公平性と公平性を保証するための重要な手段として機能する。
- 参考スコア(独自算出の注目度): 8.673428350514166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing prevalence of machine learning and artificial
intelligence-based medical decision support systems, it is equally important to
ensure that these systems provide patient outcomes in a fair and equitable
fashion. This paper presents an innovative framework for detecting areas of
algorithmic bias in medical-AI decision support systems. Our approach
efficiently identifies potential biases in medical-AI models, specifically in
the context of sepsis prediction, by employing the Classification and
Regression Trees (CART) algorithm. We verify our methodology by conducting a
series of synthetic data experiments, showcasing its ability to estimate areas
of bias in controlled settings precisely. The effectiveness of the concept is
further validated by experiments using electronic medical records from Grady
Memorial Hospital in Atlanta, Georgia. These tests demonstrate the practical
implementation of our strategy in a clinical environment, where it can function
as a vital instrument for guaranteeing fairness and equity in AI-based medical
decisions.
- Abstract(参考訳): 機械学習と人工知能に基づく医療意思決定支援システムの普及に伴い、これらのシステムが公平かつ公平な方法で患者結果を提供するようにすることが重要である。
本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデル,特に敗血症予測の文脈における潜在的なバイアスを,分類・回帰木(CART)アルゴリズムを用いて効率的に同定する。
本手法は,一連の合成データ実験を行い,制御された設定におけるバイアス領域を正確に推定する能力を示す。
この概念の有効性は、ジョージア州アトランタにあるグレイディ記念病院の電子医療記録を用いてさらに検証される。
これらのテストは、AIベースの医療決定における公平性と公平性を保証する重要な手段として機能する、臨床環境における我々の戦略の実践的実装を実証する。
関連論文リスト
- An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - SUDO: a framework for evaluating clinical artificial intelligence systems without ground-truth annotations [3.7525007896336944]
我々は,基幹アノテーションを使わずにAIシステムを評価するためのフレームワークであるSUDOを紹介する。
我々は,SUDOがモデル性能の信頼できるプロキシになりうることを示し,信頼できない予測を識別する。
論文 参考訳(メタデータ) (2024-01-02T18:12:03Z) - Explainable AI in Diagnosing and Anticipating Leukemia Using Transfer
Learning Method [0.0]
本研究は,小児および10代に流行する急性リンパ芽球性白血病(ALL)に焦点をあてる。
ディープラーニング技術を活用したコンピュータ支援診断(CAD)モデルを用いた自動検出手法を提案する。
提案手法は98.38%の精度を達成し、他の試験モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-12-01T10:37:02Z) - Unmasking Bias in AI: A Systematic Review of Bias Detection and
Mitigation Strategies in Electronic Health Record-based Models [6.7598257064537055]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Detecting Spurious Correlations with Sanity Tests for Artificial
Intelligence Guided Radiology Systems [22.249702822013045]
放射線学におけるAIの展開における重要な要素は、開発システムの有効性と安全性への信頼を得ることである。
現在のゴールド標準アプローチは、一般化データセットのパフォーマンスの分析検証を行うことである。
間違った理由から,システムが開発データに対して良好に動作するかどうかを特定するための,一連の健全性テストについて述べる。
論文 参考訳(メタデータ) (2021-03-04T14:14:05Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。