論文の概要: Does a Rising Tide Lift All Boats? Bias Mitigation for AI-based CMR Segmentation
- arxiv url: http://arxiv.org/abs/2503.17089v1
- Date: Fri, 21 Mar 2025 12:17:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:57:41.080579
- Title: Does a Rising Tide Lift All Boats? Bias Mitigation for AI-based CMR Segmentation
- Title(参考訳): ライジングタイドがすべてのボートをリフティングする?AIベースのCMRセグメンテーションのバイアス軽減
- Authors: Tiarna Lee, Esther Puyol-Antón, Bram Ruijsink, Miaojing Shi, Andrew P. King,
- Abstract要約: オーバーサンプリング、重要リウィーディング、グループDRO、レースバイアスを軽減するためにこれらのテクニックの組み合わせを使用します。
オーバーサンプリングにより偏見を緩和し,黒色被写体の性能を著しく向上させることができた。
グループDROは黒被写体のパフォーマンスも向上するが、黒被写体のパフォーマンスは低下する。
- 参考スコア(独自算出の注目度): 8.635755620107242
- License:
- Abstract: Artificial intelligence (AI) is increasingly being used for medical imaging tasks. However, there can be biases in the resulting models, particularly when they were trained using imbalanced training datasets. One such example has been the strong race bias effect in cardiac magnetic resonance (CMR) image segmentation models. Although this phenomenon has been reported in a number of publications, little is known about the effectiveness of bias mitigation algorithms in this domain. We aim to investigate the impact of common bias mitigation methods to address bias between Black and White subjects in AI-based CMR segmentation models. Specifically, we use oversampling, importance reweighing and Group DRO as well as combinations of these techniques to mitigate the race bias. Furthermore, motivated by recent findings on the root causes of AI-based CMR segmentation bias, we evaluate the same methods using models trained and evaluated on cropped CMR images. We find that bias can be mitigated using oversampling, significantly improving performance for the underrepresented Black subjects whilst not significantly reducing the majority White subjects' performance. Group DRO also improves performance for Black subjects but not significantly, while reweighing decreases performance for Black subjects. Using a combination of oversampling and Group DRO also improves performance for Black subjects but not significantly. Using cropped images increases performance for both races and reduces the bias, whilst adding oversampling as a bias mitigation technique with cropped images reduces the bias further.
- Abstract(参考訳): 人工知能(AI)は、医療画像のタスクにますます利用されている。
しかしながら、結果のモデルにはバイアスがあり、特に不均衡なトレーニングデータセットを使用してトレーニングされた場合には、そのバイアスが発生します。
そのような例の1つは、心臓磁気共鳴(CMR)画像セグメンテーションモデルにおける強いレースバイアス効果である。
この現象は多くの出版物で報告されているが、この領域におけるバイアス緩和アルゴリズムの有効性についてはほとんど分かっていない。
我々は、AIに基づくCMRセグメンテーションモデルにおいて、黒と白の被験者間のバイアスに対処するための共通のバイアス緩和手法の効果を検討することを目的とする。
具体的には、オーバーサンプリング、重要リウィーディング、グループDRO、およびこれらのテクニックの組み合わせを使用して、レースバイアスを緩和します。
さらに、AIに基づくCMR偏差バイアスの根本原因に関する最近の知見により、我々は、収穫したCMR画像に基づいて訓練および評価されたモデルを用いて、同じ方法を評価する。
オーバサンプリングにより偏見を緩和し,黒色被写体の性能を著しく向上する一方,白黒被写体の性能は有意に低下しないことがわかった。
グループDROは黒被写体のパフォーマンスも向上するが、黒被写体のパフォーマンスは低下する。
オーバーサンプリングとグループDROを組み合わせることで、黒色被写体のパフォーマンスも向上するが、あまり良くない。
収穫画像を使用することで、両方のレースのパフォーマンスが向上し、バイアスが低減される一方で、収穫画像によるバイアス軽減技術としてオーバーサンプリングを追加することにより、バイアスはさらに減少する。
関連論文リスト
- An investigation into the causes of race bias in AI-based cine CMR segmentation [7.279664622541276]
心臓磁気共鳴(CMR)画像の分類とセグメンテーションの一連の実験を英国バイオバンクで行った。
画像だけでは高い精度でレースを予測できるが、地上の真実のセグメンテーションでは精度は低い。
分類モデルで最も注目されたのは皮下脂肪などの非ハート領域であった。
論文 参考訳(メタデータ) (2024-08-05T13:40:33Z) - Going Beyond Popularity and Positivity Bias: Correcting for Multifactorial Bias in Recommender Systems [74.47680026838128]
ユーザインタラクションデータとレコメンダシステム(RS)の2つの典型的なバイアスは、人気バイアスと肯定バイアスである。
項目と評価値の双方に影響される多因子選択バイアスについて検討する。
分散を低減し、最適化の堅牢性を向上させるため、スムースで交互に勾配降下する手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T12:18:21Z) - CLIP the Bias: How Useful is Balancing Data in Multimodal Learning? [72.19502317793133]
比較言語画像事前学習(CLIP)におけるバイアス軽減のためのデータバランスの有効性について検討する。
表現バイアスと相関バイアスの両方を低減するために,Multi-Modal Moment Matching (M4) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T14:43:17Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Evaluating and Mitigating Bias in Image Classifiers: A Causal
Perspective Using Counterfactuals [27.539001365348906]
本稿では、逆学習推論(ALI)の改良版に構造因果モデル(SCM)を組み込むことにより、逆ファクトアルを生成する方法を提案する。
本稿では,事前学習された機械学習分類器の説明方法を示し,そのバイアスを評価し,そのバイアスを正則化器を用いて緩和する方法について述べる。
論文 参考訳(メタデータ) (2020-09-17T13:19:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。