論文の概要: A Data-Centric Approach to Detecting and Mitigating Demographic Bias in Pediatric Mental Health Text: A Case Study in Anxiety Detection
- arxiv url: http://arxiv.org/abs/2501.00129v1
- Date: Mon, 30 Dec 2024 20:00:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:17:00.528917
- Title: A Data-Centric Approach to Detecting and Mitigating Demographic Bias in Pediatric Mental Health Text: A Case Study in Anxiety Detection
- Title(参考訳): 小児精神保健テキストにおける画像バイアスの検出と緩和のためのデータ中心的アプローチ : 不安検出を事例として
- Authors: Julia Ive, Paulina Bondaronek, Vishal Yadav, Daniel Santel, Tracy Glauser, Tina Cheng, Jeffrey R. Strawn, Greeshma Agasthya, Jordan Tschida, Sanghyun Choo, Mayanka Chandrashekar, Anuj J. Kapadia, John Pestian,
- Abstract要約: 臨床テキストにおけるジェンダーベースのコンテンツ格差に対処するデータ中心型脱バイアスフレームワークを開発した。
我々のアプローチは、テキストで訓練されたAI医療モデルのバイアスを軽減する効果的な戦略を示す。
- 参考スコア(独自算出の注目度): 3.874958704454859
- License:
- Abstract: Introduction: Healthcare AI models often inherit biases from their training data. While efforts have primarily targeted bias in structured data, mental health heavily depends on unstructured data. This study aims to detect and mitigate linguistic differences related to non-biological differences in the training data of AI models designed to assist in pediatric mental health screening. Our objectives are: (1) to assess the presence of bias by evaluating outcome parity across sex subgroups, (2) to identify bias sources through textual distribution analysis, and (3) to develop a de-biasing method for mental health text data. Methods: We examined classification parity across demographic groups and assessed how gendered language influences model predictions. A data-centric de-biasing method was applied, focusing on neutralizing biased terms while retaining salient clinical information. This methodology was tested on a model for automatic anxiety detection in pediatric patients. Results: Our findings revealed a systematic under-diagnosis of female adolescent patients, with a 4% lower accuracy and a 9% higher False Negative Rate (FNR) compared to male patients, likely due to disparities in information density and linguistic differences in patient notes. Notes for male patients were on average 500 words longer, and linguistic similarity metrics indicated distinct word distributions between genders. Implementing our de-biasing approach reduced diagnostic bias by up to 27%, demonstrating its effectiveness in enhancing equity across demographic groups. Discussion: We developed a data-centric de-biasing framework to address gender-based content disparities within clinical text. By neutralizing biased language and enhancing focus on clinically essential information, our approach demonstrates an effective strategy for mitigating bias in AI healthcare models trained on text.
- Abstract(参考訳): 導入: 医療AIモデルは、トレーニングデータからバイアスを継承することが多い。
努力は主に構造化データのバイアスをターゲットにしているが、メンタルヘルスは構造化されていないデータに大きく依存している。
本研究の目的は,小児のメンタルヘルススクリーニングを支援するために設計されたAIモデルのトレーニングデータにおける非生物学的差異に関連する言語的差異を検出し,軽減することである。
本研究の目的は,(1)性サブグループ間の結果パリティを評価することによってバイアスの存在を評価すること,(2)テキスト分布分析によるバイアス源の同定を行うこと,(3)メンタルヘルステキストデータの非バイアス化手法を開発することである。
方法: 人口集団間での分類パリティについて検討し, 性別がモデル予測に与える影響について検討した。
有意な臨床情報を保持しつつバイアス項を中和することに焦点を当てたデータ中心の脱バイアス法を適用した。
本手法は小児の不安自動検出モデルを用いて検討した。
結果: 青年期女子の系統的下診断は, 男性に比べて4%, 偽陰性率(FNR)が9%高かった。
男性患者の平均単語長は500語であり, 言語的類似性尺度では, 性別間での単語分布が異なっていた。
脱バイアスのアプローチを実装することで、診断バイアスを最大27%減らし、人口統計グループ間でのエクイティ向上の有効性を示した。
考察: 臨床テキストにおけるジェンダーベースのコンテンツ格差に対処するデータ中心型脱バイアスフレームワークを開発した。
偏りのある言語を中和し、臨床的に不可欠な情報に焦点を絞ることで、テキストで訓練されたAI医療モデルにおいて、偏りを緩和するための効果的な戦略を示す。
関連論文リスト
- Debias-CLR: A Contrastive Learning Based Debiasing Method for Algorithmic Fairness in Healthcare Applications [0.17624347338410748]
異なる治療と戦うために,暗黙の処理内脱バイアス法を提案した。
心不全患者の臨床記録と診断基準,治療報告,生理的活力について検討した。
Debias-CLRは、性別や民族を嫌う場合に、SC-WEAT(Single-Category Word Embedding Association Test)の効果を減少させることができた。
論文 参考訳(メタデータ) (2024-11-15T19:32:01Z) - Connected Speech-Based Cognitive Assessment in Chinese and English [10.205946648609752]
本稿では,コネクテッド音声の分析による認知機能評価のための新しいベンチマークデータセットと予測タスクを提案する。
このデータセットは、認知障害のレベルが異なる中国語と英語の話者のための音声サンプルと臨床情報で構成されている。
予測タスクは、軽度の認知障害診断と認知テストスコア予測を含む。
論文 参考訳(メタデータ) (2024-06-11T19:04:29Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - IA-GCN: Interpretable Attention based Graph Convolutional Network for
Disease prediction [47.999621481852266]
タスクに対する入力特徴の臨床的関連性を解釈する,解釈可能なグラフ学習モデルを提案する。
臨床シナリオでは、そのようなモデルは、臨床専門家が診断および治療計画のためのより良い意思決定を支援することができる。
本研究では,Tadpoleの平均精度が3.2%,UKBBジェンダーが1.6%,UKBB年齢予測タスクが2%と,比較方法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2021-03-29T13:04:02Z) - Interpretable bias mitigation for textual data: Reducing gender bias in
patient notes while maintaining classification performance [0.11545092788508224]
2つの臨床ノートデータセットから性別付き言語を識別・除去する。
データ拡張による低~中レベルのバイアス除去のための健康状態分類タスクの最小劣化を示す。
本研究は,自然言語処理パイプラインにおけるバイアスを識別・低減するために,データ拡張を用いた解釈可能なアプローチを概説する。
論文 参考訳(メタデータ) (2021-03-10T03:09:30Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Risk of Training Diagnostic Algorithms on Data with Demographic Bias [0.5599792629509227]
医用画像解析アプリケーションにおけるMICCAI 2018の実践を調査するために,MICCAI 2018の手順を調査した。
意外なことに、診断に焦点を当てた論文では、使用されるデータセットの人口統計がほとんど書かれていないことが判明した。
本研究では,非偏りのある特徴を,対向的な学習環境において,人口統計変数を明示的に使用することにより学習可能であることを示す。
論文 参考訳(メタデータ) (2020-05-20T13:51:01Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。