論文の概要: Unsupervised Search for Ethnic Minorities' Medical Segmentation Training Set
- arxiv url: http://arxiv.org/abs/2501.02442v1
- Date: Sun, 05 Jan 2025 05:04:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:07:21.486187
- Title: Unsupervised Search for Ethnic Minorities' Medical Segmentation Training Set
- Title(参考訳): エスニックマイノリティのメディカルセグメンテーショントレーニングセットの教師なし検索
- Authors: Yixiao Chen, Yue Yao, Ruining Yang, Md Zakir Hossain, Ashu Gupta, Tom Gedeon,
- Abstract要約: 本稿では、医療画像におけるデータセットバイアスの重大な問題について、特に人種差に着目して検討する。
分析の結果, 医学的セグメンテーションデータセットは, 主に収集部位の人口構成に影響され, かなり偏りがあることが判明した。
本稿では,過小評価された人種グループに焦点をあてて,これらのバイアスを減らすことを目的とした,新たなトレーニングセット検索戦略を提案する。
- 参考スコア(独自算出の注目度): 5.880582406602758
- License:
- Abstract: This article investigates the critical issue of dataset bias in medical imaging, with a particular emphasis on racial disparities caused by uneven population distribution in dataset collection. Our analysis reveals that medical segmentation datasets are significantly biased, primarily influenced by the demographic composition of their collection sites. For instance, Scanning Laser Ophthalmoscopy (SLO) fundus datasets collected in the United States predominantly feature images of White individuals, with minority racial groups underrepresented. This imbalance can result in biased model performance and inequitable clinical outcomes, particularly for minority populations. To address this challenge, we propose a novel training set search strategy aimed at reducing these biases by focusing on underrepresented racial groups. Our approach utilizes existing datasets and employs a simple greedy algorithm to identify source images that closely match the target domain distribution. By selecting training data that aligns more closely with the characteristics of minority populations, our strategy improves the accuracy of medical segmentation models on specific minorities, i.e., Black. Our experimental results demonstrate the effectiveness of this approach in mitigating bias. We also discuss the broader societal implications, highlighting how addressing these disparities can contribute to more equitable healthcare outcomes.
- Abstract(参考訳): 本稿では,医療画像におけるデータセットバイアスの重要課題について考察し,特に,データセット収集における人口分布の不均一に起因する人種的格差に着目した。
分析の結果, 医学的セグメンテーションデータセットは, 主に収集部位の人口構成に影響され, かなり偏りがあることが判明した。
例えば、アメリカ合衆国で収集されたSLO(Scanning Laser Ophthalmoscopy)データセットには、白人のイメージがほとんど含まれており、少数民族の集団は少数である。
この不均衡は、特に少数民族にとって、バイアスドモデルのパフォーマンスと不平等な臨床結果をもたらす可能性がある。
この課題に対処するために、未表現の人種グループに焦点をあてて、これらのバイアスを減らすことを目的とした、新しいトレーニングセット検索戦略を提案する。
提案手法では,既存のデータセットを用いて,対象領域の分布と密に一致したソース画像の同定を行う。
少数民族の特徴とより緊密に一致した訓練データを選択することで、我々の戦略は特定の少数民族、すなわち黒人の医療区分モデルの精度を向上させる。
実験により, この手法がバイアス軽減に有効であることを実証した。
また、これらの格差への対処が、より公平な医療成果にどのように貢献するかを強調し、より広範な社会的含意についても論じる。
関連論文リスト
- From Majority to Minority: A Diffusion-based Augmentation for Underrepresented Groups in Skin Lesion Analysis [43.1078084014722]
AIに基づく診断は皮膚がんの分類における皮膚科レベルのパフォーマンスを示す。
このようなシステムは、トレーニングセットに十分な表現が欠けている少数派のグループからのデータでテストすると、性能が低下する傾向にある。
マイノリティグループに利益をもたらすために,多数派からの豊富な情報の利用を最大化する,効果的な拡散に基づく拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-26T14:19:31Z) - Seeds of Stereotypes: A Large-Scale Textual Analysis of Race and Gender Associations with Diseases in Online Sources [1.8259644946867188]
本研究は、人種や性別の指標とともに様々な疾患が議論される状況を分析した。
その結果、人口統計学用語は、オンラインテキストの特定の疾患概念と不均等に関連していることがわかった。
我々は、特定の人種的・性別的用語と分析された18の疾患の関連において、幅広い相違を見出した。
論文 参考訳(メタデータ) (2024-05-08T13:38:56Z) - Adversarial Reweighting Guided by Wasserstein Distance for Bias
Mitigation [24.160692009892088]
データ中のマイノリティの下位表現は、学習中のサブポピュレーションの異なる扱いを困難にしている。
本稿では,このような表現バイアスに対処する新たな逆方向再重み付け手法を提案する。
論文 参考訳(メタデータ) (2023-11-21T15:46:11Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Risk of Training Diagnostic Algorithms on Data with Demographic Bias [0.5599792629509227]
医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-20T13:51:01Z) - Predictive Modeling of ICU Healthcare-Associated Infections from
Imbalanced Data. Using Ensembles and a Clustering-Based Undersampling
Approach [55.41644538483948]
本研究は,集中治療室における危険因子の同定と医療関連感染症の予測に焦点をあてる。
感染発生率の低減に向けた意思決定を支援することを目的とする。
論文 参考訳(メタデータ) (2020-05-07T16:13:12Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。