論文の概要: Interpretable bias mitigation for textual data: Reducing gender bias in
patient notes while maintaining classification performance
- arxiv url: http://arxiv.org/abs/2103.05841v1
- Date: Wed, 10 Mar 2021 03:09:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 15:07:53.979037
- Title: Interpretable bias mitigation for textual data: Reducing gender bias in
patient notes while maintaining classification performance
- Title(参考訳): テキストデータの解釈可能なバイアス軽減:分類性能を維持しながら、患者ノートの性別バイアスを低減する
- Authors: Joshua R. Minot, Nicholas Cheney, Marc Maier, Danne C. Elbers,
Christopher M. Danforth, and Peter Sheridan Dodds
- Abstract要約: 2つの臨床ノートデータセットから性別付き言語を識別・除去する。
データ拡張による低~中レベルのバイアス除去のための健康状態分類タスクの最小劣化を示す。
本研究は,自然言語処理パイプラインにおけるバイアスを識別・低減するために,データ拡張を用いた解釈可能なアプローチを概説する。
- 参考スコア(独自算出の注目度): 0.11545092788508224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical systems in general, and patient treatment decisions and outcomes in
particular, are affected by bias based on gender and other demographic
elements. As language models are increasingly applied to medicine, there is a
growing interest in building algorithmic fairness into processes impacting
patient care. Much of the work addressing this question has focused on biases
encoded in language models -- statistical estimates of the relationships
between concepts derived from distant reading of corpora. Building on this
work, we investigate how word choices made by healthcare practitioners and
language models interact with regards to bias. We identify and remove gendered
language from two clinical-note datasets and describe a new debiasing procedure
using BERT-based gender classifiers. We show minimal degradation in health
condition classification tasks for low- to medium-levels of bias removal via
data augmentation. Finally, we compare the bias semantically encoded in the
language models with the bias empirically observed in health records. This work
outlines an interpretable approach for using data augmentation to identify and
reduce the potential for bias in natural language processing pipelines.
- Abstract(参考訳): 一般に医療システム、特に患者の治療決定と結果は、性別やその他の人口構成要素に基づくバイアスによって影響を受ける。
言語モデルが医学に適用されるにつれて、患者ケアに影響を与えるプロセスにアルゴリズム的公平性を構築することへの関心が高まっている。
この問題に対処する作業の多くは、言語モデルで符号化されたバイアス(コーパスの遠い読みから導かれる概念間の関係の統計的推定)に焦点を当てている。
この研究に基づいて,医療従事者や言語モデルによる単語選択がバイアスとどのように相互作用するかを検討する。
2つの臨床ノートから性別付き言語を識別・除去し,BERTに基づく性別分類器を用いた新しい脱バイアス法を記述した。
データ拡張による低~中レベルのバイアス除去のための健康状態分類タスクの最小劣化を示す。
最後に、言語モデルで符号化されるバイアスと、健康記録で経験的に観察されるバイアスを比較します。
本研究は,自然言語処理パイプラインにおけるバイアスを識別・低減するために,データ拡張を用いた解釈可能なアプローチを概説する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Locating and Mitigating Gender Bias in Large Language Models [40.78150878350479]
大規模言語モデル(LLM)は、人間の好みを含む事実や人間の認知を学ぶために、広範囲なコーパスで事前訓練されている。
このプロセスは、社会においてバイアスや一般的なステレオタイプを取得するこれらのモデルに必然的に導かれる可能性がある。
本稿では,職業代名詞の性別バイアスを軽減する知識編集手法LSDMを提案する。
論文 参考訳(メタデータ) (2024-03-21T13:57:43Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Word Embeddings via Causal Inference: Gender Bias Reducing and Semantic
Information Preserving [3.114945725130788]
本稿では、因果推論の枠組みを利用して、ジェンダーバイアスを効果的に除去する手法を提案する。
総括実験により,提案手法は男女の偏りを解消する作業において,最先端の成果を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-09T19:57:22Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Impact of Gender Debiased Word Embeddings in Language Modeling [0.0]
性別、人種、社会的バイアスは、自然言語処理の適用における不公平の明白な例として検出されている。
近年の研究では、トレーニングで使用される人為的なデータが偏見を生じさせる要因であることが示されている。
現在のアルゴリズムは、データからのバイアスを増幅することも証明されている。
論文 参考訳(メタデータ) (2021-05-03T14:45:10Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。