論文の概要: Advancing Minority Stress Detection with Transformers: Insights from the Social Media Datasets
- arxiv url: http://arxiv.org/abs/2509.02908v1
- Date: Wed, 03 Sep 2025 00:27:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.370136
- Title: Advancing Minority Stress Detection with Transformers: Insights from the Social Media Datasets
- Title(参考訳): 変圧器による微小応力検出の促進:ソーシャルメディアデータセットからの考察
- Authors: Santosh Chapagain, Cory J Cascalheira, Shah Muhammad Hamdi, Soukaina Filali Boubrahimi, Jillian R. Scheer,
- Abstract要約: セクシュアル・セクシュアル・マイノリティの集団の個人は、不適切なほど健康上の結果や精神障害を経験している。
本研究は,オンライン談話におけるマイノリティストレスを検出するためのトランスフォーマーアーキテクチャの包括的評価である。
- 参考スコア(独自算出の注目度): 0.29360071145551064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Individuals from sexual and gender minority groups experience disproportionately high rates of poor health outcomes and mental disorders compared to their heterosexual and cisgender counterparts, largely as a consequence of minority stress as described by Meyer's (2003) model. This study presents the first comprehensive evaluation of transformer-based architectures for detecting minority stress in online discourse. We benchmark multiple transformer models including ELECTRA, BERT, RoBERTa, and BART against traditional machine learning baselines and graph-augmented variants. We further assess zero-shot and few-shot learning paradigms to assess their applicability on underrepresented datasets. Experiments are conducted on the two largest publicly available Reddit corpora for minority stress detection, comprising 12,645 and 5,789 posts, and are repeated over five random seeds to ensure robustness. Our results demonstrate that integrating graph structure consistently improves detection performance across transformer-only models and that supervised fine-tuning with relational context outperforms zero and few-shot approaches. Theoretical analysis reveals that modeling social connectivity and conversational context via graph augmentation sharpens the models' ability to identify key linguistic markers such as identity concealment, internalized stigma, and calls for support, suggesting that graph-enhanced transformers offer the most reliable foundation for digital health interventions and public health policy.
- Abstract(参考訳): セクシュアルとセクシュアルのマイノリティ集団の個人は、異性愛者や性愛者と比較して、不公平に健康上の結果と精神障害の比率が高く、主にマイアーの2003年のモデルで説明されているような少数派のストレスの結果である。
本研究は,オンライン談話におけるマイノリティストレスを検出するためのトランスフォーマーアーキテクチャの包括的評価である。
ELECTRA,BERT,RoBERTa,BARTを含む複数のトランスフォーマーモデルを従来の機械学習ベースラインとグラフ拡張型に対してベンチマークする。
さらに、ゼロショットと少数ショットの学習パラダイムを評価し、不足したデータセットに対する適用性を評価する。
12,645件と5,789件の投稿からなり、5つのランダムなシードで繰り返し、堅牢性を確保する。
この結果から,グラフ構造の統合は変圧器のみのモデル間における検出性能を一貫して向上し,リレーショナルコンテキストによる微調整がゼロおよび少数ショットのアプローチより優れていることを示す。
理論的分析により、グラフ拡張による社会的接続と会話の文脈のモデル化は、アイデンティティの隠蔽、内在的スティグマ、サポートの要求といった主要な言語マーカーを識別するモデルの能力を鋭くし、グラフ強化トランスフォーマーがデジタルヘルス介入と公衆衛生政策の最も信頼できる基盤を提供することを示唆している。
関連論文リスト
- Fair Deepfake Detectors Can Generalize [51.21167546843708]
共同設立者(データ分散とモデルキャパシティ)の制御により,公正な介入による一般化が向上することを示す。
この知見を応用して, 逆正当性重み付けとサブグループワイド特徴正規化を併用し, 新たなアライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・アライメント・インセンティブ・インターベンション・インベンション・インテクション(DAID)を提案する。
DAIDは、いくつかの最先端技術と比較して、公平性と一般化の両方において一貫して優れた性能を達成する
論文 参考訳(メタデータ) (2025-07-03T14:10:02Z) - U-aggregation: Unsupervised Aggregation of Multiple Learning Algorithms [4.871473117968554]
新人口の強化とロバスト化のための教師なしモデルアグリゲーション手法U-アグリゲーションを提案する。
既存の教師付きモデルアグリゲーションや超学習者アプローチとは異なり、U-アグリゲーションは対象人口の観測されたラベルや成果を仮定しない。
複雑な形質の遺伝的リスク予測を高めるために,U凝集を用いた実世界の応用の可能性を示す。
論文 参考訳(メタデータ) (2025-01-30T01:42:51Z) - Calibration of Transformer-based Models for Identifying Stress and
Depression in Social Media [0.0]
本研究はソーシャルメディアにおける抑うつ・ストレス検出の課題における最初の研究であり,トランスフォーマーモデルに余分な言語情報を注入する。
提案手法では,BERT(MentalBERT)モデルに入力として付与される複合埋め込みを生成するために,マルチモーダル適応ゲートを用いる。
提案手法を3つの公開データセットで検証し,言語機能とトランスフォーマーモデルの統合が性能の急上昇を示すことを示す。
論文 参考訳(メタデータ) (2023-05-26T10:19:04Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Dawn of the transformer era in speech emotion recognition: closing the
valence gap [9.514396745161793]
モデルサイズと事前学習データが下流の性能に及ぼす影響について検討する。
我々は、wav2vec 2.0 と HuBERT の事前訓練されたいくつかの変種を微調整し、クロスコーパスの一般化をテストする。
CNNベースのベースラインに比べて、トランスフォーマーベースのアーキテクチャは、小さな摂動に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2022-03-14T13:21:47Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。