論文の概要: Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging
- arxiv url: http://arxiv.org/abs/2311.02115v2
- Date: Mon, 1 Jul 2024 16:30:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-02 17:40:31.664577
- Title: Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging
- Title(参考訳): 医用イメージングのための人工知能におけるバイアスの客観的・体系的評価に向けて
- Authors: Emma A. M. Stanley, Raissa Souza, Anthony Winder, Vedant Gulve, Kimberly Amador, Matthias Wilms, Nils D. Forkert,
- Abstract要約: 医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
- 参考スコア(独自算出の注目度): 2.0890189482817165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) models trained using medical images for clinical tasks often exhibit bias in the form of disparities in performance between subgroups. Since not all sources of biases in real-world medical imaging data are easily identifiable, it is challenging to comprehensively assess how those biases are encoded in models, and how capable bias mitigation methods are at ameliorating performance disparities. In this article, we introduce a novel analysis framework for systematically and objectively investigating the impact of biases in medical images on AI models. We developed and tested this framework for conducting controlled in silico trials to assess bias in medical imaging AI using a tool for generating synthetic magnetic resonance images with known disease effects and sources of bias. The feasibility is showcased by using three counterfactual bias scenarios to measure the impact of simulated bias effects on a convolutional neural network (CNN) classifier and the efficacy of three bias mitigation strategies. The analysis revealed that the simulated biases resulted in expected subgroup performance disparities when the CNN was trained on the synthetic datasets. Moreover, reweighing was identified as the most successful bias mitigation strategy for this setup, and we demonstrated how explainable AI methods can aid in investigating the manifestation of bias in the model using this framework. Developing fair AI models is a considerable challenge given that many and often unknown sources of biases can be present in medical imaging datasets. In this work, we present a novel methodology to objectively study the impact of biases and mitigation strategies on deep learning pipelines, which can support the development of clinical AI that is robust and responsible.
- Abstract(参考訳): 臨床タスクのために医療画像を用いて訓練された人工知能(AI)モデルは、サブグループ間のパフォーマンスの格差の形でバイアスを示すことが多い。
実世界の医療画像データのすべてのバイアス源が容易に識別できるわけではないので、それらのバイアスがどのようにモデルにエンコードされているか、そして、パフォーマンス格差を緩和するバイアス緩和手法がいかに有能であるかを包括的に評価することは困難である。
本稿では,医療画像におけるバイアスがAIモデルに与える影響を体系的かつ客観的に調査する新しい分析フレームワークを提案する。
医用画像AIの偏りを既知の疾患効果とバイアス源を有する合成磁気共鳴画像を生成するツールを用いて評価するために, サイリコ試験において制御を行うためのこのフレームワークを開発し, 試験した。
3つの反事実バイアスシナリオを用いて、畳み込みニューラルネットワーク(CNN)分類器に対するシミュレーションバイアス効果の影響と、3つのバイアス緩和戦略の有効性を測定する。
解析の結果, シミュレーションバイアスは, CNNが合成データセット上で訓練された際に, 期待されるサブグループ性能の相違をもたらすことがわかった。
さらに、リライジングは、この設定において最も成功したバイアス緩和戦略として認識され、このフレームワークを用いてモデルにおけるバイアスの顕在化を調べる上で、説明可能なAI手法がいかに役立つかを実証した。
医療画像データセットに多くの、しばしば未知のバイアス源が存在することを考えると、公正なAIモデルの開発は大きな課題である。
本研究では,学習パイプラインに対するバイアスと緩和戦略の影響を客観的に研究する新たな手法を提案する。
関連論文リスト
- Unmasking Bias in AI: A Systematic Review of Bias Detection and Mitigation Strategies in Electronic Health Record-based Models [6.300835344100545]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - An investigation into the impact of deep learning model choice on sex
and race bias in cardiac MR segmentation [8.449342469976758]
被検者の性別と人種の不均衡が、AIによる心臓磁気共鳴画像のセグメンテーションにどのように影響するかを検討する。
4つのモデルのうち3つのモデルに有意な性的偏見があり、すべてのモデルに人種的偏見がある。
論文 参考訳(メタデータ) (2023-08-25T14:55:38Z) - No Fair Lunch: A Causal Perspective on Dataset Bias in Machine Learning
for Medical Imaging [20.562862525019916]
我々は、データセットバイアスの異なるソースが区別できないが、かなり異なる緩和戦略を必要とすることを示す。
医療画像の公平性を推論し、安全で公平なAI予測モデルの開発を支援するための実践的な3段階の枠組みを提供する。
論文 参考訳(メタデータ) (2023-07-31T09:48:32Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - Analyzing the Effects of Handling Data Imbalance on Learned Features
from Medical Images by Looking Into the Models [50.537859423741644]
不均衡なデータセットでモデルをトレーニングすることは、学習問題にユニークな課題をもたらす可能性がある。
ニューラルネットワークの内部ユニットを深く調べて、データの不均衡処理が学習した機能にどのように影響するかを観察します。
論文 参考訳(メタデータ) (2022-04-04T09:38:38Z) - Explaining medical AI performance disparities across sites with
confounder Shapley value analysis [8.785345834486057]
マルチサイト評価は、このような格差を診断する鍵となる。
本フレームワークは,各種類のバイアスが全体の性能差に与える影響を定量化する手法を提供する。
本研究は, 深部学習モデルを用いて気胸の有無を検知し, その有用性を実証するものである。
論文 参考訳(メタデータ) (2021-11-12T18:54:10Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - "Name that manufacturer". Relating image acquisition bias with task
complexity when training deep learning models: experiments on head CT [0.0]
我々は、データセットにおけるスキャナーメーカーの分布がディープラーニングモデルの全体的なバイアスにどのように貢献するかを分析する。
我々は、CNNが画像スキャナーメーカーを識別し、このバイアスがモデルの性能に大きな影響を与えることを実証した。
論文 参考訳(メタデータ) (2020-08-19T16:05:58Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。