論文の概要: Lived Experience Matters: Automatic Detection of Stigma on Social Media
Toward People Who Use Substances
- arxiv url: http://arxiv.org/abs/2302.02064v2
- Date: Sun, 16 Jul 2023 11:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 23:32:01.072773
- Title: Lived Experience Matters: Automatic Detection of Stigma on Social Media
Toward People Who Use Substances
- Title(参考訳): 生活体験の課題 : ソーシャルメディアにおける物質使用者に対するスティグマの自動検出
- Authors: Salvatore Giorgi, Douglas Bellew, Daniel Roy Sadek Habib, Garrick
Sherman, Joao Sedoc, Chase Smitterberg, Amanda Devoto, McKenzie
Himelein-Wachowiak, and Brenda Curtis
- Abstract要約: 物質(PWUS)を使用する人々に対するスティグマは、治療を求める主要な障壁である。
本稿では、約5000の公開Reddit投稿のデータセットを用いて、PWUSに対するスティグマについて検討する。
- 参考スコア(独自算出の注目度): 1.7378386177263254
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Stigma toward people who use substances (PWUS) is a leading barrier to
seeking treatment.Further, those in treatment are more likely to drop out if
they experience higher levels of stigmatization. While related concepts of hate
speech and toxicity, including those targeted toward vulnerable populations,
have been the focus of automatic content moderation research, stigma and, in
particular, people who use substances have not. This paper explores stigma
toward PWUS using a data set of roughly 5,000 public Reddit posts. We performed
a crowd-sourced annotation task where workers are asked to annotate each post
for the presence of stigma toward PWUS and answer a series of questions related
to their experiences with substance use. Results show that workers who use
substances or know someone with a substance use disorder are more likely to
rate a post as stigmatizing. Building on this, we use a supervised machine
learning framework that centers workers with lived substance use experience to
label each Reddit post as stigmatizing. Modeling person-level demographics in
addition to comment-level language results in a classification accuracy (as
measured by AUC) of 0.69 -- a 17% increase over modeling language alone.
Finally, we explore the linguist cues which distinguish stigmatizing content:
PWUS substances and those who don't agree that language around othering
("people", "they") and terms like "addict" are stigmatizing, while PWUS (as
opposed to those who do not) find discussions around specific substances more
stigmatizing. Our findings offer insights into the nature of perceived stigma
in substance use. Additionally, these results further establish the subjective
nature of such machine learning tasks, highlighting the need for understanding
their social contexts.
- Abstract(参考訳): 物質を使用する人(PWUS)に対するスティグマは、治療を求める上で主要な障壁となっている。
ヘイトスピーチと毒性の関連概念は、脆弱な人口を対象としたものを含むが、自動コンテンツモデレーション研究、スティグマ(stigma)、特に物質を使用する人はそうではない。
本稿では、約5000の公開Reddit投稿のデータセットを用いて、PWUSに対するスティグマについて検討する。
我々は,PWUSに対するスティグマの存在について,各投稿に注釈を付けるように依頼し,物質使用経験に関する一連の質問に回答するクラウドソースアノテーションタスクを実施した。
結果、物質を使ったり、薬物使用障害の人を知っている労働者は、投稿を汚職として評価する傾向が強いことがわかった。
これに基づいて、redditの投稿にスティグマタイジング(stigmatizing)とラベル付けする、生きた物質使用経験のある労働者を集中させる、教師付き機械学習フレームワークを使用します。
コメントレベルの言語に加えて、個人レベルの人口層をモデル化すると、分類精度は0.69で、モデリング言語だけで17%向上している。
最後に、pwusの物質と、他の言語(「人々」や「彼ら」)を取り巻く言語に同意しない人々、そして「アドディクト」のような用語がスティグマタイジングであるのに対し、pwusは特定の物質に関する議論をよりスティグマタイジングするのと対照的に)を区別する言語学者の手がかりを探究する。
本研究は, 物質使用におけるスティグマの知覚特性について考察した。
さらに、これらの結果は、これらの機械学習タスクの主観的な性質をさらに確立し、彼らの社会的コンテキストを理解する必要性を強調している。
関連論文リスト
- Words Matter: Reducing Stigma in Online Conversations about Substance Use with Large Language Models [0.0]
Stigmaは、物質使用障害(SUD)に苦しむ個人に対する治療の障壁である
本研究では、ソーシャルメディア、特にRedditにおいて、匿名性によって差別行動が悪化するおそれのあるスティグマがどのように現れるかを調査する。
論文 参考訳(メタデータ) (2024-08-15T01:00:28Z) - Decoding the Narratives: Analyzing Personal Drug Experiences Shared on Reddit [1.080878521069079]
本研究は,物質利用経験に関するオンラインユーザ生成テキストを解析するための多レベル多ラベル分類モデルを開発することを目的とする。
注釈付きデータの集合上で様々なマルチラベル分類アルゴリズムを用いて、GPT-4が命令、定義、例によって誘導された場合、他の全てのモデルよりも優れていたことを示す。
論文 参考訳(メタデータ) (2024-06-17T21:56:57Z) - Reddit-Impacts: A Named Entity Recognition Dataset for Analyzing Clinical and Social Effects of Substance Use Derived from Social Media [6.138126219622993]
物質利用障害(SUD)は、データ駆動研究を通じて、問題とそのトレンドの理解を深める必要がある、世界的な関心事である。
ソーシャルメディアは、SUDに関するユニークな重要な情報源であり、特にそのような情報源のデータは、生きた経験を持つ人々によってしばしば生成されるためである。
本稿では,処方と違法なオピオイド,およびオピオイド使用障害の薬物に関する議論を専門とするサブレディットからキュレートされた,難解な名前付きエンティティ認識(NER)データセットであるReddit-Impactsを紹介する。
このデータセットは、研究の少ないが重要な、物質利用の側面に特に焦点を絞っている。
論文 参考訳(メタデータ) (2024-05-09T23:43:57Z) - Comparing Hallucination Detection Metrics for Multilingual Generation [62.97224994631494]
本稿では,各言語にまたがって生成した伝記要約における幻覚を,様々な事実の幻覚検出指標がいかによく識別するかを評価する。
自動測度が相互にどのように相関するか, 事実判断に一致しているかを比較検討した。
我々の分析によると、語彙指標は非効率であるが、NLIベースのメトリクスはよく機能し、多くの設定における人間のアノテーションと相関し、しばしば教師付きモデルよりも優れている。
論文 参考訳(メタデータ) (2024-02-16T08:10:34Z) - Identifying Self-Disclosures of Use, Misuse and Addiction in Community-based Social Media Posts [26.161892748901252]
我々は,オピオイド使用の6つの異なる位相をラベル付けした,様々なサブレディットからの2500オピオイド関連ポストのコーパスを提示する。
すべての投稿で、私たちは、アノテーションの品質とモデル開発の両方において、スパンレベルの説明を注釈付けし、彼らの役割を決定的に研究します。
論文 参考訳(メタデータ) (2023-11-15T16:05:55Z) - Bias Against 93 Stigmatized Groups in Masked Language Models and
Downstream Sentiment Classification Tasks [2.5690340428649323]
本研究は, 社会的汚職に対する偏見を大規模に検討することにより, 現存する作業における偏見評価の焦点を広げるものである。
アメリカ合衆国では、病気、障害、薬物使用、精神疾患、宗教、セクシュアリティ、社会経済的地位、その他の関連要因に関する幅広い条件を含む93のスティグマタイズドグループに焦点を当てている。
英語学習マスケッド言語モデル(MLM)におけるこれらのグループに対するバイアスとその下流感情分類タスクについて検討した。
論文 参考訳(メタデータ) (2023-06-08T20:46:09Z) - Goal Driven Discovery of Distributional Differences via Language
Descriptions [58.764821647036946]
大きなコーパスを採掘することは有用な発見をもたらすが、人間には時間がかかる。
我々は、ゴール駆動方式で2つの大きなコーパス間の差異を自動的に発見する新しいタスクD5を定式化する。
本稿では,OpenD5 の幅広い応用について,これまで不明な発見を著者に提示する。
論文 参考訳(メタデータ) (2023-02-28T01:32:32Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。