論文の概要: Predictive Insights into LGBTQ+ Minority Stress: A Transductive Exploration of Social Media Discourse
- arxiv url: http://arxiv.org/abs/2411.13534v1
- Date: Wed, 20 Nov 2024 18:35:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:12:34.028295
- Title: Predictive Insights into LGBTQ+ Minority Stress: A Transductive Exploration of Social Media Discourse
- Title(参考訳): LGBTQ+マイノリティストレスに関する予測的視点:ソーシャルメディアの言論のトランスダクティブな探求
- Authors: S. Chapagain, Y. Zhao, T. K. Rohleen, S. M. Hamdi, S. F. Boubrahimi, R. E. Flinn, E. M. Lund, D. Klooster, J. R. Scheer, C. J. Cascalheira,
- Abstract要約: LGBTQ+の人は異性愛者や性愛者よりも健康を害する傾向にある。
マイノリティのストレスは、ソーシャルメディアプラットフォーム上の投稿でしばしば表現される。
グラフニューラルネットワーク (GNN) と変換器 (BERT) からの双方向表現を用いたハイブリッドモデルを構築し, マイノリティストレス検出の分類性能を向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Individuals who identify as sexual and gender minorities, including lesbian, gay, bisexual, transgender, queer, and others (LGBTQ+) are more likely to experience poorer health than their heterosexual and cisgender counterparts. One primary source that drives these health disparities is minority stress (i.e., chronic and social stressors unique to LGBTQ+ communities' experiences adapting to the dominant culture). This stress is frequently expressed in LGBTQ+ users' posts on social media platforms. However, these expressions are not just straightforward manifestations of minority stress. They involve linguistic complexity (e.g., idiom or lexical diversity), rendering them challenging for many traditional natural language processing methods to detect. In this work, we designed a hybrid model using Graph Neural Networks (GNN) and Bidirectional Encoder Representations from Transformers (BERT), a pre-trained deep language model to improve the classification performance of minority stress detection. We experimented with our model on a benchmark social media dataset for minority stress detection (LGBTQ+ MiSSoM+). The dataset is comprised of 5,789 human-annotated Reddit posts from LGBTQ+ subreddits. Our approach enables the extraction of hidden linguistic nuances through pretraining on a vast amount of raw data, while also engaging in transductive learning to jointly develop representations for both labeled training data and unlabeled test data. The RoBERTa-GCN model achieved an accuracy of 0.86 and an F1 score of 0.86, surpassing the performance of other baseline models in predicting LGBTQ+ minority stress. Improved prediction of minority stress expressions on social media could lead to digital health interventions to improve the wellbeing of LGBTQ+ people-a community with high rates of stress-sensitive health problems.
- Abstract(参考訳): レズビアン、ゲイ、バイセクシュアル、トランスジェンダー、キーア、その他(LGBTQ+)を含む性や性別のマイノリティを識別する個人は、異性愛者や性愛者よりも健康が劣る傾向にある。
これらの健康格差を推し進める主要な要因は、少数派のストレス(LGBTQ+コミュニティが支配的な文化に適応した経験に特有の慢性的および社会的ストレス)である。
このストレスは、ソーシャルメディアプラットフォーム上のLGBTQ+ユーザーの投稿でしばしば表現される。
しかし、これらの表現は単なる少数派のストレスの現れではない。
言語的な複雑さ(例えば、イディオムや語彙の多様性)が伴うため、従来の自然言語処理手法では検出が難しい。
本研究では,GNN(Graph Neural Networks)とBERT(Bidirectional Encoder Representations from Transformers)を用いたハイブリッドモデルの設計を行った。
マイノリティストレス検出のためのソーシャルメディアデータセット(LGBTQ+MiSSoM+)のベンチマーク実験を行った。
このデータセットは、LGBTQ+サブレディットからの5,789人のReddit投稿で構成されている。
提案手法は,大量の原データの事前学習を通じて隠れた言語的ニュアンスを抽出すると同時に,ラベル付きトレーニングデータとラベルなしテストデータの両方の表現を共同開発するトランスダクティブ学習を実現する。
RoBERTa-GCNモデルは精度0.86とF1スコア0.86を達成し、LGBTQ+マイノリティストレスの予測において他のベースラインモデルのパフォーマンスを上回った。
ソーシャルメディア上でのマイノリティストレス表現の予測の改善は、LGBTQ+人々の幸福を改善するためのデジタルヘルス介入につながる可能性がある。
関連論文リスト
- QueerBench: Quantifying Discrimination in Language Models Toward Queer Identities [4.82206141686275]
我々は、LGBTQIA+の個人に関する英語大言語モデルによって生成された文の完成によって引き起こされる潜在的害を評価する。
この分析は、大きな言語モデルはLGBTQIA+コミュニティ内の個人に対してより頻繁に差別的行動を示す傾向があることを示している。
論文 参考訳(メタデータ) (2024-06-18T08:40:29Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Detection of Homophobia & Transphobia in Dravidian Languages: Exploring
Deep Learning Methods [1.5687561161428403]
ホモフォビアとトランスフォビアはLGBT+コミュニティに対する攻撃的なコメントを構成している。
本稿では,マラヤラムとタミル・ランゲージのソーシャルメディアコメントの分類に異なるディープラーニング・モジュールの適用性を検討する。
論文 参考訳(メタデータ) (2023-04-03T12:15:27Z) - Minority Stress Experienced by LGBTQ Online Communities during the
COVID-19 Pandemic [7.999100019665959]
新型コロナウイルスのパンデミックはLGBTQコミュニティのメンバーなどマイノリティの生活に大きな影響を与えている。
パンデミック前のデータセットとパンデミック中のデータセットを使って、少数派のストレスを示すTwitter投稿を識別します。
新型コロナウイルスのパンデミックで、怒りの言葉が少数派のストレスと強く結びついていることがわかりました。
論文 参考訳(メタデータ) (2022-05-19T12:26:59Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Transgender Community Sentiment Analysis from Social Media Data: A
Natural Language Processing Approach [3.044968666863866]
トランスジェンダーのコミュニティは、一般人口と比較して精神状態に大きな格差を経験している。
本研究では,トランスジェンダーが投稿した300のソーシャルメディアコメントを,否定的,肯定的,中立的な感情に分類する。
論文 参考訳(メタデータ) (2020-10-25T08:13:34Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。