論文の概要: Words Matter: Reducing Stigma in Online Conversations about Substance Use with Large Language Models
- arxiv url: http://arxiv.org/abs/2408.07873v1
- Date: Thu, 15 Aug 2024 01:00:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 15:19:12.894700
- Title: Words Matter: Reducing Stigma in Online Conversations about Substance Use with Large Language Models
- Title(参考訳): 単語が重要:大規模言語モデルを用いた教材使用に関するオンライン会話におけるスティグマの低減
- Authors: Layla Bouzoubaa, Elham Aghakhani, Shadi Rezapour,
- Abstract要約: Stigmaは、物質使用障害(SUD)に苦しむ個人に対する治療の障壁である
本研究では、ソーシャルメディア、特にRedditにおいて、匿名性によって差別行動が悪化するおそれのあるスティグマがどのように現れるかを調査する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stigma is a barrier to treatment for individuals struggling with substance use disorders (SUD), which leads to significantly lower treatment engagement rates. With only 7% of those affected receiving any form of help, societal stigma not only discourages individuals with SUD from seeking help but isolates them, hindering their recovery journey and perpetuating a cycle of shame and self-doubt. This study investigates how stigma manifests on social media, particularly Reddit, where anonymity can exacerbate discriminatory behaviors. We analyzed over 1.2 million posts, identifying 3,207 that exhibited stigmatizing language towards people who use substances (PWUS). Using Informed and Stylized LLMs, we develop a model for de-stigmatization of these expressions into empathetic language, resulting in 1,649 reformed phrase pairs. Our paper contributes to the field by proposing a computational framework for analyzing stigma and destigmatizing online content, and delving into the linguistic features that propagate stigma towards PWUS. Our work not only enhances understanding of stigma's manifestations online but also provides practical tools for fostering a more supportive digital environment for those affected by SUD. Code and data will be made publicly available upon acceptance.
- Abstract(参考訳): スティグマは、物質使用障害(SUD)に苦しむ患者に対する治療の障壁であり、治療エンゲージメントが著しく低下する。
何らかの形で援助を受けた人はわずか7%に過ぎず、社会不安はSUDの個人が助けを求めるのを妨げているだけでなく、彼らを孤立させ、回復の旅を妨げ、恥と自己疑念のサイクルを永続させる。
本研究では、ソーシャルメディア、特にRedditにおいて、匿名性によって差別行動が悪化するおそれのあるスティグマがどのように現れるかを調査する。
我々は120万件以上の投稿を分析し、物質(PWUS)を使用する人々に対して、スティグマティゼーション言語を示す3,207件を特定した。
Informed and Stylized LLMsを用いて、これらの表現を共感言語に分解するモデルを開発し、1,649個の句対を修正した。
本論文は,オンラインコンテンツのスティグマ分析とデスティグマ化のための計算フレームワークを提案し,PWUSに向けてスティグマを伝播する言語的特徴を掘り下げることによって,この分野に寄与する。
我々の研究は、ネット上でのスティグマのマニフェストの理解を深めるだけでなく、SUDの影響を受けた人々のために、より支援的なデジタル環境を育むための実践的なツールも提供します。
コードとデータは受理時に公開されます。
関連論文リスト
- The Impact of Speech Anonymization on Pathology and Its Limits [6.687980678659259]
本研究では,ドイツの複数の機関の2700人以上の話者を対象に,匿名化が病的スピーチに与える影響について検討した。
Dysarthria, Dysphonia, Cleft Lip and Palateなどの特定の疾患は最小限の効用変化を経験し, Dysglossiaはわずかに改善した。
論文 参考訳(メタデータ) (2024-04-11T18:06:35Z) - Beyond Hate Speech: NLP's Challenges and Opportunities in Uncovering
Dehumanizing Language [11.946719280041789]
本稿では, GPT-4, GPT-3.5, LLAMA-2を含む最先端NLPモデルの性能評価を行った。
以上の結果から,これらのモデルが潜在的な可能性を示し,より広範なヘイトスピーチと非人間化言語を区別する精度が70%に達する一方で,バイアスも示していることがわかった。
論文 参考訳(メタデータ) (2024-02-21T13:57:36Z) - Tokenization Matters: Navigating Data-Scarce Tokenization for Gender Inclusive Language Technologies [75.85462924188076]
ジェンダー非包括的NLP研究は、ジェンダーバイナリ中心大言語モデル(LLM)の有害な制限を文書化している。
誤認識はByte-Pair(BPE)トークン化によって大きく影響されている。
本研究では,(1)代名詞の代名詞化パリティ,(2)代名詞間の一貫した代名詞化を強制する手法,および(2)既存のLLM代名詞の知識を活用して新代名詞の習熟度を向上させる手法を提案する。
論文 参考訳(メタデータ) (2023-12-19T01:28:46Z) - Diagnosing and Debiasing Corpus-Based Political Bias and Insults in GPT2 [0.0]
大規模な言語モデル (LLMs) をインターネットから流出した未フィルタリングコーパスでトレーニングすることは、一般的で有利なプラクティスである。
近年の研究では、生成事前学習型トランスフォーマー(GPT)言語モデルが、自身のバイアスを認識し、生成されたコンテンツの毒性を検出することが示されている。
本研究は、侮辱と政治的偏見の2つの追加的なバイアスを緩和する診断・偏見的アプローチの有効性について検討した。
論文 参考訳(メタデータ) (2023-11-17T01:20:08Z) - Locally Differentially Private Document Generation Using Zero Shot
Prompting [61.20953109732442]
本稿では,DP-Prompt と呼ばれる局所的に異なるプライベートなメカニズムを提案し,作者の匿名化攻撃に対処する。
DP-PromptをChatGPT(gpt-3.5)のような強力な言語モデルで使用すると、匿名化攻撃の成功率の顕著な低下が観察される。
論文 参考訳(メタデータ) (2023-10-24T18:25:13Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Critical Behavioral Traits Foster Peer Engagement in Online Mental
Health Communities [28.17719749654601]
10,118件以上の投稿と、21のメンタルヘルス固有のサブレディットからの58,279件のコメントからなる、ピアカウンセリングデータセットであるBeCOPEを紹介した。
分析の結果, 「自己批判」は, ヘルプシーカーが表現する批判の最も一般的な形態であり, 相互作用の43%を占めることが明らかとなった。
本稿では, 高い可読性は, 追従支援を受ける確率を効果的に2倍にすることを示す。
論文 参考訳(メタデータ) (2023-09-04T14:00:12Z) - Lived Experience Matters: Automatic Detection of Stigma on Social Media
Toward People Who Use Substances [1.7378386177263254]
物質(PWUS)を使用する人々に対するスティグマは、治療を求める主要な障壁である。
本稿では、約5000の公開Reddit投稿のデータセットを用いて、PWUSに対するスティグマについて検討する。
論文 参考訳(メタデータ) (2023-02-04T02:26:08Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Fragments of the Past: Curating Peer Support with Perpetrators of
Domestic Violence [88.37416552778178]
我々は,過去フラグメントの設計と展開において,6人の支援労働者と18人の加害者とともに働いた10ヶ月の研究を報告した。
私たちは、暴力から脱却した経験をデジタルで強化された成果物、すなわち「フラグメント」を作ることが、メッセージのモチベーションと仲間間のラッピングをいかに翻訳するかを共有します。
これらの知見は、挑戦的な人口を持つ将来のネットワーク設計の実践的考察の基礎となる。
論文 参考訳(メタデータ) (2021-07-09T22:57:43Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。