論文の概要: Gendered Mental Health Stigma in Masked Language Models
- arxiv url: http://arxiv.org/abs/2210.15144v1
- Date: Thu, 27 Oct 2022 03:09:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:48:48.190352
- Title: Gendered Mental Health Stigma in Masked Language Models
- Title(参考訳): 仮面言語モデルにおける性精神健康状態
- Authors: Inna Wanyin Lin, Lucille Njoo, Anjalie Field, Ashish Sharma, Katharina
Reinecke, Tim Althoff, Yulia Tsvetkov
- Abstract要約: マスキング言語モデルにおける性的なメンタルヘルスのスティグマについて検討した。
モデルでは、精神的な健康状態に関する文章の中で、男性よりも女性の被験者を予測する傾向が常に高いことが判明した。
- 参考スコア(独自算出の注目度): 38.766854150355634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mental health stigma prevents many individuals from receiving the appropriate
care, and social psychology studies have shown that mental health tends to be
overlooked in men. In this work, we investigate gendered mental health stigma
in masked language models. In doing so, we operationalize mental health stigma
by developing a framework grounded in psychology research: we use clinical
psychology literature to curate prompts, then evaluate the models' propensity
to generate gendered words. We find that masked language models capture
societal stigma about gender in mental health: models are consistently more
likely to predict female subjects than male in sentences about having a mental
health condition (32% vs. 19%), and this disparity is exacerbated for sentences
that indicate treatment-seeking behavior. Furthermore, we find that different
models capture dimensions of stigma differently for men and women, associating
stereotypes like anger, blame, and pity more with women with mental health
conditions than with men. In showing the complex nuances of models' gendered
mental health stigma, we demonstrate that context and overlapping dimensions of
identity are important considerations when assessing computational models'
social biases.
- Abstract(参考訳): メンタルヘルスのスティグマは、多くの個人が適切なケアを受けるのを妨げ、社会心理学の研究は、メンタルヘルスが男性で見過ごされる傾向があることを示した。
本研究は,マスク型言語モデルにおけるジェンダー型メンタルヘルススティグマについて検討する。
心理学研究に基礎を置く枠組みを開発し,プロンプトのキュレーションに臨床心理学的文献を用い,モデルの適応性を評価し,ジェンダー化された単語を生成する。
マスキング言語モデルは、メンタルヘルスにおける性別に関する社会的な汚点を捉えている:モデルは、精神的な健康状態を持つという文において、男性よりも女性を予測しがちである(32%対19%)。
さらに,男性よりも精神的健康状態の女性の方が,怒りや非難,哀れといったステレオタイプを連想させることから,異なるモデルが男女のスティグマの次元を捉えていることがわかった。
モデルのジェンダー化されたメンタルヘルススティグマの複雑なニュアンスを示す中で,アイデンティティの文脈と重なり合う次元が,計算モデルの社会的バイアスを評価する上で重要な考慮事項であることを示す。
関連論文リスト
- MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes in Emotion Attribution [20.21748776472278]
本研究は,感情がジェンダー化されているか,社会的ステレオタイプに基づくのかを考察する。
すべてのモデルは、ジェンダーステレオタイプの影響を受けながら、一貫して性的な感情を示す。
私たちの研究は、言語、性別、感情の間の複雑な社会的相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-03-05T17:04:05Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Emotion-based Modeling of Mental Disorders on Social Media [11.945854832533234]
4人に1人は、ある時点で精神疾患に罹患する。
Reddit上での会話から受動的に精神障害を検出するモデルを提案する。
論文 参考訳(メタデータ) (2022-01-24T04:41:02Z) - Gender and Racial Fairness in Depression Research using Social Media [13.512136878021854]
ソーシャルメディアデータは、計算レンズからメンタルヘルス研究への関心を高めました。
これまでの研究では、このデータから生成されたモデルのバイアスが懸念されている。
我々の研究は、将来の研究でこれらのバイアスを避けるための推奨事項で締めくくっている。
論文 参考訳(メタデータ) (2021-03-18T22:34:41Z) - Language, communication and society: a gender based linguistics analysis [0.0]
本研究の目的は,言語が私たちの思考のミラーであるという仮説を支持する証拠を見つけることである。
回答は、心理的特徴や行動特性の帰属など、性別のステレオタイプが存在するかどうかを調べるために分析されてきた。
論文 参考訳(メタデータ) (2020-07-14T08:38:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。