論文の概要: Lived Experience Matters: Automatic Detection of Stigma toward People
Who Use Substances on Social Media
- arxiv url: http://arxiv.org/abs/2302.02064v1
- Date: Sat, 4 Feb 2023 02:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 20:34:10.027303
- Title: Lived Experience Matters: Automatic Detection of Stigma toward People
Who Use Substances on Social Media
- Title(参考訳): live experience matters: ソーシャルメディア上で物質を使用する人に対するスティグマの自動検出
- Authors: Salvatore Giorgi, Douglas Bellew, Daniel Roy Sadek Habib, Joao Sedoc,
Chase Smitterberg, Amanda Devoto, McKenzie Himelein-Wachowiak, and Brenda
Curtis
- Abstract要約: 物質(PWUS)を使用する人々に対するスティグマは、治療を求める主要な障壁である。
本稿では、約5000の公開Reddit投稿のデータセットを用いて、PWUSに対するスティグマについて検討する。
- 参考スコア(独自算出の注目度): 1.562954878107158
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Stigma toward people who use substances (PWUS) is a leading barrier to
seeking treatment. Further, those in treatment are more likely to drop out if
they experience higher levels of stigmatization. While related concepts of hate
speech and toxicity, including those targeted toward vulnerable populations,
have been the focus of automatic content moderation research, stigma and, in
particular, people who use substances have not. This paper explores stigma
toward PWUS using a data set of roughly 5,000 public Reddit posts. We performed
a crowd-sourced annotation task where workers are asked to annotate each post
for the presence of stigma toward PWUS and answer a series of questions related
to their experiences with substance use. Results show that workers who use
substances or know someone with a substance use disorder are more likely to
rate a post as stigmatizing. Building on this, we use a supervised machine
learning framework that centers workers with lived substance use experience to
label each Reddit post as stigmatizing. Modeling person-level demographics in
addition to comment-level language results in a classification accuracy (as
measured by AUC) of 0.69 -- a 17% increase over modeling language alone.
Finally, we explore the linguist cues which distinguish stigmatizing content:
PWUS substances and those who don't agree that language around othering
("people", "they") and terms like "addict" are stigmatizing, while PWUS (as
opposed to those who do not) find discussions around specific substances more
stigmatizing. Our findings offer insights into the nature of perceived stigma
in substance use. Additionally, these results further establish the subjective
nature of such machine learning tasks, highlighting the need for understanding
their social contexts.
- Abstract(参考訳): 物質(PWUS)を使用する人々に対するスティグマは、治療を求める主要な障壁である。
さらに、治療中の患者は、より高いスティグマティゼーションを経験すれば脱落する傾向が強い。
ヘイトスピーチと毒性の関連概念は、脆弱な人口を対象としたものを含むが、自動コンテンツモデレーション研究、スティグマ(stigma)、特に物質を使用する人はそうではない。
本稿では、約5000の公開Reddit投稿のデータセットを用いて、PWUSに対するスティグマについて検討する。
我々は,PWUSに対するスティグマの存在について,各投稿に注釈を付けるように依頼し,物質使用経験に関する一連の質問に回答するクラウドソースアノテーションタスクを実施した。
結果、物質を使ったり、薬物使用障害の人を知っている労働者は、投稿を汚職として評価する傾向が強いことがわかった。
これに基づいて、redditの投稿にスティグマタイジング(stigmatizing)とラベル付けする、生きた物質使用経験のある労働者を集中させる、教師付き機械学習フレームワークを使用します。
コメントレベルの言語に加えて、個人レベルの人口層をモデル化すると、分類精度は0.69で、モデリング言語だけで17%向上している。
最後に、pwusの物質と、他の言語(「人々」や「彼ら」)を取り巻く言語に同意しない人々、そして「アドディクト」のような用語がスティグマタイジングであるのに対し、pwusは特定の物質に関する議論をよりスティグマタイジングするのと対照的に)を区別する言語学者の手がかりを探究する。
本研究は, 物質使用におけるスティグマの知覚特性について考察した。
さらに、これらの結果は、これらの機械学習タスクの主観的な性質をさらに確立し、彼らの社会的コンテキストを理解する必要性を強調している。
関連論文リスト
- Comparing Hallucination Detection Metrics for Multilingual Generation [70.77449818379056]
本稿では,幻覚検出指標が英語以外の言語でどのように機能するかを理解するためのギャップを埋めることを目的とする。
語彙的メトリクスや自然言語推論(NLI)に基づくメトリクスなど,さまざまな検出指標の有効性を評価する。
我々の経験的分析により,語彙的指標は限られた有効性を示すが,NLIに基づく指標は文レベルでの高リソース言語では良好に機能することがわかった。
論文 参考訳(メタデータ) (2024-02-16T08:10:34Z) - Identifying Self-Disclosures of Use, Misuse and Addiction in
Community-based Social Media Posts [27.47379971424582]
医療用, 誤用, 添加, 回復用, 再発用, 使用しない6種類のオピオイド使用の異なるサブレディットから2500件のオピオイド関連記事のコーパスを提出した。
すべての投稿において、我々は、スパンレベルの抽出的説明を注釈付けし、アノテーションの品質とモデル開発の両方において、それらの役割を決定的に研究します。
モデリングにおける説明の活用は,オピオイド乱用障害連続体の研究などの高用量領域において,その有効性を示す分類精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-11-15T16:05:55Z) - Identifying depression-related topics in smartphone-collected
free-response speech recordings using an automatic speech recognition system
and a deep learning topic model [7.825530847570242]
参加者265人を対象に,3919件のスマートフォンによる音声録音で29項目を抽出した。
PHQ-8の中央値が10以上の6つのトピックがうつ病のリスクトピックとみなされた。
また, 話題変化とうつ病重症度の変化との関係について検討した。
論文 参考訳(メタデータ) (2023-08-22T20:30:59Z) - Bias Against 93 Stigmatized Groups in Masked Language Models and
Downstream Sentiment Classification Tasks [2.5690340428649323]
本研究は, 社会的汚職に対する偏見を大規模に検討することにより, 現存する作業における偏見評価の焦点を広げるものである。
アメリカ合衆国では、病気、障害、薬物使用、精神疾患、宗教、セクシュアリティ、社会経済的地位、その他の関連要因に関する幅広い条件を含む93のスティグマタイズドグループに焦点を当てている。
英語学習マスケッド言語モデル(MLM)におけるこれらのグループに対するバイアスとその下流感情分類タスクについて検討した。
論文 参考訳(メタデータ) (2023-06-08T20:46:09Z) - Goal Driven Discovery of Distributional Differences via Language
Descriptions [58.764821647036946]
大きなコーパスを採掘することは有用な発見をもたらすが、人間には時間がかかる。
我々は、ゴール駆動方式で2つの大きなコーパス間の差異を自動的に発見する新しいタスクD5を定式化する。
本稿では,OpenD5 の幅広い応用について,これまで不明な発見を著者に提示する。
論文 参考訳(メタデータ) (2023-02-28T01:32:32Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Toxicity Detection with Generative Prompt-based Inference [3.9741109244650823]
言語モデル(LM)は、望ましくない内容を含むコーパスで訓練され、バイアスや毒性を示す能力を持つことは、長年にわたって知られていたリスクである。
本研究では,ゼロショットプロンプトによる毒性検出の生成的変異について検討し,プロンプトエンジニアリングに関する総合的な試行を行った。
論文 参考訳(メタデータ) (2022-05-24T22:44:43Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Toxicity Detection: Does Context Really Matter? [22.083682201142242]
私たちは、投稿の有害性に対する認識を増幅または緩和できる状況があることに気付きました。
意外なことに、文脈が毒性分類器の性能を実際に改善する証拠も見つからない。
これは、コンテキストにアノテートされたコメントのより大きなデータセットの必要性を示している。
論文 参考訳(メタデータ) (2020-06-01T15:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。