論文の概要: Somatic in the East, Psychological in the West?: Investigating Clinically-Grounded Cross-Cultural Depression Symptom Expression in LLMs
- arxiv url: http://arxiv.org/abs/2508.03247v1
- Date: Tue, 05 Aug 2025 09:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.883511
- Title: Somatic in the East, Psychological in the West?: Investigating Clinically-Grounded Cross-Cultural Depression Symptom Expression in LLMs
- Title(参考訳): 東洋の体操, 西洋の心理学 : LLMにおける臨床研究
- Authors: Shintaro Sakai, Jisun An, Migyeong Kang, Haewoon Kwak,
- Abstract要約: 大規模な言語モデルがこれらの文化パターンを再現するかどうかを西方または東方ペルソナで促すことで検証する。
その結果、LLMは英語で促すとパターンの複製にほとんど失敗していることがわかった。
我々の分析は、モデルが文化的ペルソナに対する感度の低いことと、強い文化的に不変な症状階層の2つの主な原因を指摘した。
- 参考スコア(独自算出の注目度): 4.192921651573462
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior clinical psychology research shows that Western individuals with depression tend to report psychological symptoms, while Eastern individuals report somatic ones. We test whether Large Language Models (LLMs), which are increasingly used in mental health, reproduce these cultural patterns by prompting them with Western or Eastern personas. Results show that LLMs largely fail to replicate the patterns when prompted in English, though prompting in major Eastern languages (i.e., Chinese, Japanese, and Hindi) improves alignment in several configurations. Our analysis pinpoints two key reasons for this failure: the models' low sensitivity to cultural personas and a strong, culturally invariant symptom hierarchy that overrides cultural cues. These findings reveal that while prompt language is important, current general-purpose LLMs lack the robust, culture-aware capabilities essential for safe and effective mental health applications.
- Abstract(参考訳): 以前の臨床心理学的な研究によると、うつ病を持つ西洋の人は精神症状を訴える傾向にあり、一方東部の人は身体症状を訴える傾向にある。
メンタルヘルスでますます使われている大規模言語モデル(LLM)が、西欧や東欧のペルソナに促すことで、これらの文化的パターンを再現するかどうかを検証する。
その結果、LLMは英語で促されたパターンをほとんど再現できないが、主要な東欧語(中国語、日本語、ヒンディー語)ではいくつかの構成でアライメントが改善されている。
我々の分析は、この失敗の主な理由を2つ挙げている: モデルが文化的ペルソナに対する感度が低く、文化的に不変な症状階層があり、文化的な手がかりを克服する。
これらの結果から、プロンプト言語は重要であるが、現在の汎用LSMには、安全で効果的なメンタルヘルス応用に必要な、堅牢で文化に配慮した能力が欠如していることが判明した。
関連論文リスト
- From Word to World: Evaluate and Mitigate Culture Bias via Word Association Test [48.623761108859085]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好を緩和するために,カルチャー対応のステアリング機構を統合する革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - From Surveys to Narratives: Rethinking Cultural Value Adaptation in LLMs [57.43233760384488]
LLM(Large Language Models)における文化的価値の適応は大きな課題である。
これまでの作業は主に、World Values Survey (WVS)データを使用して、LLMをさまざまな文化的価値と整合させる。
本稿では,文化価値適応のためのWVSベースのトレーニングについて検討し,調査データのみに頼って文化規範を把握し,事実知識に干渉することを見出した。
論文 参考訳(メタデータ) (2025-05-22T09:00:01Z) - Enhancing Depression Detection with Chain-of-Thought Prompting: From Emotion to Reasoning Using Large Language Models [9.43184936918456]
うつ病は世界中で障害の主な原因の1つである。
大規模言語モデルの最近の進歩は、精神的な健康問題に対処する上で有望であることを示している。
そこで本研究では,抑うつ検出の性能と解釈性を両立するChain-of-Thought Prompting手法を提案する。
論文 参考訳(メタデータ) (2025-02-09T12:30:57Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Leveraging LLMs for Translating and Classifying Mental Health Data [3.0382033111760585]
本研究は,ギリシャ語におけるうつ病の重症度の自動検出に焦点をあてる。
以上の結果から,GPT3.5-turboは英語における抑うつの重症度を同定するにはあまり成功せず,ギリシャ語でも多彩な性能を示した。
論文 参考訳(メタデータ) (2024-10-16T19:30:11Z) - Analyzing Cultural Representations of Emotions in LLMs through Mixed Emotion Survey [2.9213203896291766]
本研究では,大規模言語モデル(LLM)における感情の文化的表現の分析に焦点をあてる。
本手法は,日本人とアメリカ人の反応に特徴的な感情指標を同定した宮本らの研究に基づいている。
モデルが文献の証拠と限定的に一致していることがわかりました。
論文 参考訳(メタデータ) (2024-08-04T20:56:05Z) - WellDunn: On the Robustness and Explainability of Language Models and Large Language Models in Identifying Wellness Dimensions [46.60244609728416]
言語モデル (LMs) は, 予後不良のリスクが高まれば, 臨床実習におけるモデルの実用性に対するリトマステストにはならない可能性がある, メンタルヘルスの分野では, 言語モデル (LMs) が提案されている。
ウェルネス次元(WD)の同定におけるLMの堅牢性と説明性に着目した評価設計を提案する。
LM/LLMの4つの驚くべき結果が明らかになった。
論文 参考訳(メタデータ) (2024-06-17T19:50:40Z) - See It from My Perspective: How Language Affects Cultural Bias in Image Understanding [60.70852566256668]
視覚言語モデル(VLM)は、多くの言語における画像に関するクエリに応答することができる。
画像理解におけるVLMの西洋的偏見を特徴付け,この格差の中で言語が果たす役割について検討する。
論文 参考訳(メタデータ) (2024-06-17T15:49:51Z) - Cross-Cultural Differences in Mental Health Expressions on Social Media [11.446351184195647]
ソーシャルメディアにおけるメンタルヘルス表現の現在の理解は、WEIRD(Western, Educated, Industrialized, Rich, Democratic)の文脈に由来する。
インドに居住する個人によるRedditのメンタルヘルス投稿を分析し、インド特有のソーシャルメディア言語の変化を特定する。
論文 参考訳(メタデータ) (2024-02-18T06:56:56Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - The Cultural Psychology of Large Language Models: Is ChatGPT a Holistic
or Analytic Thinker? [30.215769791433953]
文化心理学の研究は、東西の人々の認知過程に有意な差異が認められた。
ChatGPTは一貫して東洋の全体主義的思考に傾倒する。
ChatGPTは東や西にはあまり傾きません。
論文 参考訳(メタデータ) (2023-08-28T01:05:18Z) - Inducing anxiety in large language models can induce bias [47.85323153767388]
我々は、確立された12の大規模言語モデル(LLM)に焦点を当て、精神医学でよく用いられる質問紙に答える。
以上の結果から,最新のLSMの6つが不安アンケートに強く反応し,人間に匹敵する不安スコアが得られた。
不安誘発は、LSMのスコアが不安アンケートに影響を及ぼすだけでなく、人種差別や老化などの偏見を測る以前に確立されたベンチマークにおいて、それらの行動に影響を及ぼす。
論文 参考訳(メタデータ) (2023-04-21T16:29:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。