論文の概要: Mental Health Equity in LLMs: Leveraging Multi-Hop Question Answering to Detect Amplified and Silenced Perspectives
- arxiv url: http://arxiv.org/abs/2506.18116v1
- Date: Sun, 22 Jun 2025 18:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.75612
- Title: Mental Health Equity in LLMs: Leveraging Multi-Hop Question Answering to Detect Amplified and Silenced Perspectives
- Title(参考訳): LLMにおけるメンタルヘルス・エクイティ: マルチホップ質問文の活用による増幅的・無音的視点の検出
- Authors: Batool Haider, Atmika Gorti, Aman Chadha, Manas Gaur,
- Abstract要約: メンタルヘルスリスクにおける大きな言語モデル(LLM)は、スティグマを強化し、限界化グループに害を与えるバイアスを伝播させる。
本研究は、精神保健談話におけるLCM応答バイアスを探索する多項目質問応答フレームワークを導入する。
年齢、人種、性別、社会経済的地位の体系的なタグ付けを用いて、人口動態の交点におけるバイアスパターンを調査する。
- 参考スコア(独自算出の注目度): 9.24608617206594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) in mental healthcare risk propagating biases that reinforce stigma and harm marginalized groups. While previous research identified concerning trends, systematic methods for detecting intersectional biases remain limited. This work introduces a multi-hop question answering (MHQA) framework to explore LLM response biases in mental health discourse. We analyze content from the Interpretable Mental Health Instruction (IMHI) dataset across symptom presentation, coping mechanisms, and treatment approaches. Using systematic tagging across age, race, gender, and socioeconomic status, we investigate bias patterns at demographic intersections. We evaluate four LLMs: Claude 3.5 Sonnet, Jamba 1.6, Gemma 3, and Llama 4, revealing systematic disparities across sentiment, demographics, and mental health conditions. Our MHQA approach demonstrates superior detection compared to conventional methods, identifying amplification points where biases magnify through sequential reasoning. We implement two debiasing techniques: Roleplay Simulation and Explicit Bias Reduction, achieving 66-94% bias reductions through few-shot prompting with BBQ dataset examples. These findings highlight critical areas where LLMs reproduce mental healthcare biases, providing actionable insights for equitable AI development.
- Abstract(参考訳): メンタルヘルスリスクにおける大きな言語モデル(LLM)は、スティグマを強化し、限界化グループに害を与えるバイアスを伝播させる。
これまでの研究では傾向が特定されているが、交差バイアスを検出する体系的な方法はまだ限られている。
本研究は、精神保健談話におけるLLM応答バイアスを探索するマルチホップ質問応答(MHQA)フレームワークを導入する。
解釈可能なメンタルヘルスインストラクション(IMHI)データセットから,症状提示,対処機構,治療アプローチのコンテンツを分析した。
年齢、人種、性別、社会経済的地位の体系的なタグ付けを用いて、人口動態の交点におけるバイアスパターンを調査する。
我々は,Claude 3.5 Sonnet,Jamba 1.6,Gemma 3,Llama 4の4つのLSMを評価し,感情,人口,精神状態の体系的差異を明らかにした。
我々のMHQAアプローチは従来の手法に比べて優れた検出方法を示し、逐次推論によってバイアスが増大する増幅点を同定する。
ロールプレイシミュレーションとエクスプリシットバイアス削減という2つのデバイアス手法を実装し,BBQデータセットの例を用いて,数ショットのプロンプトによって66~94%のバイアス低減を実現した。
これらの発見は、LLMがメンタルヘルスバイアスを再現し、公平なAI開発のための実用的な洞察を提供する重要な領域を浮き彫りにしている。
関連論文リスト
- Seeing What's Not There: Spurious Correlation in Multimodal LLMs [47.651861502104715]
我々は,人間の監督なしに刺激的な視覚的手がかりを自動的に識別するパイプラインであるSpurLensを紹介した。
MLLM(Multimodal Large Language Models)において,スプリアス相関が2つの大きな障害モードを引き起こすことが明らかとなった。
相関関係の持続性を明らかにすることにより,MLLMの信頼性を高めるため,より厳密な評価手法と緩和戦略が求められた。
論文 参考訳(メタデータ) (2025-03-11T20:53:00Z) - Objective quantification of mood states using large language models [0.0]
大規模言語モデル(LLM)は、広い範囲のコンテキストにまたがる応答一貫性の優れたレベルを示す。
これらの並列性を活用して、精神状態の定量化の枠組みを確立します。
論文 参考訳(メタデータ) (2025-02-13T16:52:06Z) - How Can We Diagnose and Treat Bias in Large Language Models for Clinical Decision-Making? [2.7476176772825904]
本研究では,大規模言語モデル(LLM)におけるバイアスの評価と緩和について検討する。
本稿では,JAMAクリニカルチャレンジから得られた新しいCPVデータセットについて紹介する。
このデータセットを用いて、複数の選択質問(MCQ)とそれに対応する説明を併用し、バイアス評価のためのフレームワークを構築した。
論文 参考訳(メタデータ) (2024-10-21T23:14:10Z) - Towards Implicit Bias Detection and Mitigation in Multi-Agent LLM Interactions [25.809599403713506]
大規模言語モデル(LLM)は、社会をシミュレートし、多様な社会的タスクを実行するために、多くの研究で採用されている。
LLMは、人為的なデータに曝されるため、社会的偏見に影響を受けやすい。
本研究では,多エージェントLDM相互作用における性バイアスの存在について検討し,これらのバイアスを軽減するための2つの方法を提案する。
論文 参考訳(メタデータ) (2024-10-03T15:28:05Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Unveiling and Mitigating Bias in Mental Health Analysis with Large Language Models [13.991577818021495]
GPT-4 は大規模言語モデル (LLM) における性能と公平性において最高の総合バランスであることを示す。
フェアネスを意識した私たちのプロンプトは、メンタルヘルスの予測を効果的にバイアスし、この分野におけるフェアネス分析の大きな可能性を浮き彫りにします。
論文 参考訳(メタデータ) (2024-06-17T19:05:32Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。