論文の概要: Assessing Algorithmic Bias in Language-Based Depression Detection: A Comparison of DNN and LLM Approaches
- arxiv url: http://arxiv.org/abs/2509.25795v2
- Date: Tue, 07 Oct 2025 04:20:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 13:19:51.433187
- Title: Assessing Algorithmic Bias in Language-Based Depression Detection: A Comparison of DNN and LLM Approaches
- Title(参考訳): 言語に基づく抑うつ検出におけるアルゴリズムバイアスの評価:DNNとLLMによるアプローチの比較
- Authors: Obed Junias, Prajakta Kini, Theodora Chaspari,
- Abstract要約: 本稿では,自動抑うつ検出のための言語モデルにおけるアルゴリズムバイアスについて検討する。
ジェンダーと人種・民族性に関する社会・デミノグラフィの格差に焦点を当てている。
- 参考スコア(独自算出の注目度): 3.906196377005682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates algorithmic bias in language-based models for automated depression detection, focusing on socio-demographic disparities related to gender and race/ethnicity. Models trained using deep neural networks (DNN) based embeddings are compared to few-shot learning approaches with large language models (LLMs), evaluating both performance and fairness on clinical interview transcripts from the Distress Analysis Interview Corpus/Wizard-of-Oz (DAIC-WOZ). To mitigate bias, fairness-aware loss functions are applied to DNN-based models, while in-context learning with varied prompt framing and shot counts is explored for LLMs. Results indicate that LLMs outperform DNN-based models in depression classification, particularly for underrepresented groups such as Hispanic participants. LLMs also exhibit reduced gender bias compared to DNN-based embeddings, though racial disparities persist. Among fairness-aware techniques for mitigating bias in DNN-based embeddings, the worst-group loss, which is designed to minimize loss for the worst-performing demographic group, achieves a better balance between performance and fairness. In contrast, the fairness-regularized loss minimizes loss across all groups but performs less effectively. In LLMs, guided prompting with ethical framing helps mitigate gender bias in the 1-shot setting. However, increasing the number of shots does not lead to further reductions in disparities. For race/ethnicity, neither prompting strategy nor increasing $N$ in $N$-shot learning effectively reduces disparities.
- Abstract(参考訳): 本稿では, 自動抑うつ検出のための言語モデルにおけるアルゴリズムバイアスについて検討し, 性別と人種・民族性に関する社会デミノグラフィの相違に着目した。
ディープニューラルネットワーク(DNN)ベースの埋め込みを用いてトレーニングされたモデルは、大規模言語モデル(LLM)による数ショットの学習アプローチと比較され、Distress Analysis Interview Corpus/Wizard-of-Oz(DAIC-WOZ)から得られた臨床インタビューの書き起こしの性能と公平性を評価する。
バイアスを軽減するために、DNNベースのモデルにフェアネスを考慮した損失関数を適用し、LLMに対して様々なプロンプトフレーミングとショットカウントを持つコンテキスト内学習を探索する。
その結果,LLMはうつ病分類におけるDNNモデルよりも優れており,特にヒスパニックの参加者のような表現不足の集団では優れていた。
LLMはDNNベースの埋め込みに比べて男女差が減少するが、人種的格差は持続する。
DNNをベースとした埋め込みにおけるバイアス軽減のためのフェアネス認識手法の中で、最悪のグループ損失は、最悪のパフォーマンスを持つ人口集団の損失を最小限に抑えるために設計されたもので、パフォーマンスとフェアネスのバランスを良くする。
対照的に、公平で規則化された損失は全ての群における損失を最小限に抑えるが、効率は低下する。
LLMでは、倫理的フレーミングによる指導が、1ショット設定における性別バイアスを軽減するのに役立ちます。
しかし、ショット数の増加は、格差のさらなる削減に繋がらない。
人種や民族にとって、ストラテジーの促進や、$N$-shot学習の増加は、事実上格差を減少させるものではない。
関連論文リスト
- Mitigating Subgroup Disparities in Multi-Label Speech Emotion Recognition: A Pseudo-Labeling and Unsupervised Learning Approach [53.824673312331626]
Implicit Demography Inference (IDI)モジュールは、k平均クラスタリングを用いて、音声感情認識(SER)におけるバイアスを軽減する
実験により、擬似ラベルIDIはサブグループの格差を減らし、フェアネスの指標を28%以上改善することが示された。
教師なしのIDIは、SERのパフォーマンスが3.6%未満のフェアネス指標を4.6%以上改善する。
論文 参考訳(メタデータ) (2025-05-20T14:50:44Z) - Small Changes, Large Consequences: Analyzing the Allocational Fairness of LLMs in Hiring Contexts [19.20592062296075]
大規模言語モデル(LLM)は、採用のような高度なアプリケーションにますますデプロイされている。
本研究は、実際の人事利用を反映した2つのタスクを通して、LLMベースの採用システムの割当公平性を検討する。
論文 参考訳(メタデータ) (2025-01-08T07:28:10Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Unboxing Occupational Bias: Grounded Debiasing of LLMs with U.S. Labor Data [9.90951705988724]
大規模言語モデル(LLM)は、社会的バイアスを継承し増幅する傾向がある。
LLMバイアスは、不公平な慣行をもたらし、社会的不平等を悪化させる。
論文 参考訳(メタデータ) (2024-08-20T23:54:26Z) - The power of Prompts: Evaluating and Mitigating Gender Bias in MT with LLMs [1.707677607445317]
本稿では,Large Language Models (LLM) のレンズを用いた機械翻訳における性別バイアスについて検討する。
4つの広く使われているテストセットを使用して、様々なベースLLMをベンチマークし、それらの翻訳品質と性別バイアスを、カタルーニャ語(En $rightarrow$Ca)とスペイン語(En $rightarrow$Es)の英語(En $rightarrow$Es)の最先端のニューラルネットワーク翻訳(NMT)モデルと比較する。
以上の結果から,NMTモデルと比較すると,LLMは高い偏差を示し,全モデルにまたがる性的偏差が認められた。
論文 参考訳(メタデータ) (2024-07-26T14:47:31Z) - Fairness in Cardiac MR Image Analysis: An Investigation of Bias Due to
Data Imbalance in Deep Learning Based Segmentation [1.6386696247541932]
AIにおける「フェアネス」とは、人種や性別などの人口統計特性に基づいて、潜在的なバイアスのアルゴリズムを評価することを指す。
近年, 心MR領域の深層学習(DL)が注目されているが, それらの妥当性についてはまだ研究されていない。
異なる人種集団間でDiceのパフォーマンスに統計的に有意な差が認められた。
論文 参考訳(メタデータ) (2021-06-23T13:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。