論文の概要: Evaluating and Mitigating Bias in AI-Based Medical Text Generation
- arxiv url: http://arxiv.org/abs/2504.17279v1
- Date: Thu, 24 Apr 2025 06:10:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.267877
- Title: Evaluating and Mitigating Bias in AI-Based Medical Text Generation
- Title(参考訳): AIに基づく医用テキスト生成におけるバイアスの評価と緩和
- Authors: Xiuying Chen, Tairan Wang, Juexiao Zhou, Zirui Song, Xin Gao, Xiangliang Zhang,
- Abstract要約: AIシステムは人間の偏見を反映し、増幅し、歴史的に貧弱な人口におけるパフォーマンスの質を低下させる。
本研究では,医療分野におけるテキスト生成における公平性問題について検討する。
偏りを低減するために,不整合群を選択的に最適化するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 35.24191727599811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) systems, particularly those based on deep learning models, have increasingly achieved expert-level performance in medical applications. However, there is growing concern that such AI systems may reflect and amplify human bias, and reduce the quality of their performance in historically under-served populations. The fairness issue has attracted considerable research interest in the medical imaging classification field, yet it remains understudied in the text generation domain. In this study, we investigate the fairness problem in text generation within the medical field and observe significant performance discrepancies across different races, sexes, and age groups, including intersectional groups, various model scales, and different evaluation metrics. To mitigate this fairness issue, we propose an algorithm that selectively optimizes those underperformed groups to reduce bias. The selection rules take into account not only word-level accuracy but also the pathology accuracy to the target reference, while ensuring that the entire process remains fully differentiable for effective model training. Our evaluations across multiple backbones, datasets, and modalities demonstrate that our proposed algorithm enhances fairness in text generation without compromising overall performance. Specifically, the disparities among various groups across different metrics were diminished by more than 30% with our algorithm, while the relative change in text generation accuracy was typically within 2%. By reducing the bias generated by deep learning models, our proposed approach can potentially alleviate concerns about the fairness and reliability of text generation diagnosis in medical domain. Our code is publicly available to facilitate further research at https://github.com/iriscxy/GenFair.
- Abstract(参考訳): 人工知能(AI)システム、特にディープラーニングモデルに基づくシステムは、医療応用において専門家レベルのパフォーマンスをますます達成している。
しかし、このようなAIシステムは人間の偏見を反映し、増幅し、歴史的に貧弱な人口におけるパフォーマンスの質を低下させるのではないかという懸念が高まっている。
公平性問題は医学画像分類分野においてかなりの研究関心を集めているが、テキスト生成領域ではいまだ検討されていない。
本研究では,医学分野におけるテキスト生成における公平性の問題について検討し,異なる人種,性別,年齢群で有意なパフォーマンス差を観察する。
この公平性問題を緩和するために、偏りを減らすために、これらの不適合なグループを選択的に最適化するアルゴリズムを提案する。
選択規則は、単語レベルの精度だけでなく、対象参照に対する病理的精度も考慮し、プロセス全体が効果的なモデルトレーニングのために完全に差別化可能であることを保証している。
複数のバックボーン,データセット,モダリティに対する評価は,提案アルゴリズムが全体の性能を損なうことなく,テキスト生成の公平性を高めることを示す。
具体的には, テキスト生成精度の相対的変化が2%以内であるのに対して, 異なる指標の異なるグループ間の差異は, アルゴリズムによって30%以上減少する傾向にあった。
深層学習モデルが生み出すバイアスを減らすことで,本提案手法は医学領域におけるテキスト生成診断の公平性と信頼性に関する懸念を軽減することができる。
私たちのコードはhttps://github.com/iriscxy/GenFair.comでさらなる研究を促進するために公開されています。
関連論文リスト
- Group-Adaptive Threshold Optimization for Robust AI-Generated Text Detection [60.09665704993751]
本稿では,AI生成コンテンツ分類器におけるグループ固有のしきい値最適化アルゴリズムであるFairOPTを紹介する。
我々のアプローチは、属性(例えば、テキストの長さと書き込みスタイル)に基づいて、データをサブグループに分割し、各グループの決定しきい値を学ぶ。
我々のフレームワークは、AIが生成する出力検出において、より堅牢で公平な分類基準の道を開く。
論文 参考訳(メタデータ) (2025-02-06T21:58:48Z) - A Data-Centric Approach to Detecting and Mitigating Demographic Bias in Pediatric Mental Health Text: A Case Study in Anxiety Detection [3.874958704454859]
臨床テキストにおけるジェンダーベースのコンテンツ格差に対処するデータ中心型脱バイアスフレームワークを開発した。
我々のアプローチは、テキストで訓練されたAI医療モデルのバイアスを軽減する効果的な戦略を示す。
論文 参考訳(メタデータ) (2024-12-30T20:00:22Z) - Biasing & Debiasing based Approach Towards Fair Knowledge Transfer for Equitable Skin Analysis [16.638722872021095]
学生ネットワークに公平な知識を伝達する2バイアスの教師のアプローチを提案する。
本手法は,学生ネットワークに存在するバイアスを,予測精度を損なうことなく軽減する。
論文 参考訳(メタデータ) (2024-05-16T17:02:23Z) - A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - The Limits of Fair Medical Imaging AI In The Wild [43.97266228706059]
医療用AIが人口統計エンコーディングをどのように利用するかを検討する。
医療画像AIは、疾患分類において、人口動態のショートカットを利用することを確認した。
人口統計属性のエンコーディングが少ないモデルは、しばしば「グローバルに最適」であることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:59:50Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - MEDFAIR: Benchmarking Fairness for Medical Imaging [44.73351338165214]
MEDFAIRは、医療画像のための機械学習モデルの公正性をベンチマークするフレームワークである。
モデル選択基準の未検討の問題は、公正な結果に重大な影響を及ぼす可能性がある。
異なる倫理的原則を必要とするさまざまな医療応用シナリオを推奨する。
論文 参考訳(メタデータ) (2022-10-04T16:30:47Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。