論文の概要: Exposure to Content Written by Large Language Models Can Reduce Stigma Around Opioid Use Disorder in Online Communities
- arxiv url: http://arxiv.org/abs/2504.10501v1
- Date: Tue, 08 Apr 2025 18:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-20 05:05:38.588504
- Title: Exposure to Content Written by Large Language Models Can Reduce Stigma Around Opioid Use Disorder in Online Communities
- Title(参考訳): 大規模言語モデルによるコンテンツへの露出は、オンラインコミュニティにおけるオピオイド使用障害に伴うスティグマを減少させる
- Authors: Shravika Mittal, Darshi Shah, Shin Won Do, Mai ElSherief, Tanushree Mitra, Munmun De Choudhury,
- Abstract要約: 広汎性スティグマはオピオイド使用障害(OUD)における治療効果の障害となる
本研究では,大規模言語モデル(LLM)が,オンラインコミュニティにおけるOUD関連スティグマの緩和に有効かどうかを検討する。
- 参考スコア(独自算出の注目度): 19.149341014846573
- License:
- Abstract: Widespread stigma, both in the offline and online spaces, acts as a barrier to harm reduction efforts in the context of opioid use disorder (OUD). This stigma is prominently directed towards clinically approved medications for addiction treatment (MAT), people with the condition, and the condition itself. Given the potential of artificial intelligence based technologies in promoting health equity, and facilitating empathic conversations, this work examines whether large language models (LLMs) can help abate OUD-related stigma in online communities. To answer this, we conducted a series of pre-registered randomized controlled experiments, where participants read LLM-generated, human-written, or no responses to help seeking OUD-related content in online communities. The experiment was conducted under two setups, i.e., participants read the responses either once (N = 2,141), or repeatedly for 14 days (N = 107). We found that participants reported the least stigmatized attitudes toward MAT after consuming LLM-generated responses under both the setups. This study offers insights into strategies that can foster inclusive online discourse on OUD, e.g., based on our findings LLMs can be used as an education-based intervention to promote positive attitudes and increase people's propensity toward MAT.
- Abstract(参考訳): オフライン空間とオンライン空間の両方で広汎なスティグマは、オピオイド使用障害(OUD)の文脈において、軽減努力を害する障壁として機能する。
このスティグマは、臨床で承認された中毒治療薬(MAT)、その状態の人、およびその状態そのものに顕著に向けられている。
ヘルスエクイティを推進し、共感的な会話を促進する人工知能技術の可能性を考えると、この研究は、オンラインコミュニティにおけるOUD関連のスティグマを緩和するのに大きな言語モデル(LLM)が役立つかどうかを検討する。
そこで,オンラインコミュニティにおけるOUD関連コンテンツ検索を支援するために, LLM生成, 人書き, あるいはレスポンシブを学習した参加者を対象に, 事前登録によるランダム化制御実験を行った。
この実験は、被験者が一度(N = 2,141)、繰り返し14日間(N = 107)の反応を読み取るという2つの設定の下で行われた。
いずれのセットアップもLCM生成反応を消費した後,MATに対する最も便宜的な態度を報告した。
本研究は,OUDにおける包括的オンライン談話を促進するための戦略について,我々の知見に基づいて考察し,LCMを教育的介入として活用し,肯定的な態度を奨励し,MATに対する人々の正当性を高めるための戦略について考察する。
関連論文リスト
- LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Mitigating Hallucinations of Large Language Models in Medical Information Extraction via Contrastive Decoding [92.32881381717594]
医療情報抽出タスクにおける幻覚の問題を解決するために,ALCD(ALternate Contrastive Decoding)を導入する。
ALCDは, 従来の復号法に比べて幻覚の解消に有意な改善が見られた。
論文 参考訳(メタデータ) (2024-10-21T07:19:19Z) - Negation Blindness in Large Language Models: Unveiling the NO Syndrome in Image Generation [63.064204206220936]
基礎的な大規模言語モデル(LLM)は、私たちが技術を理解する方法を変えました。
詩の執筆からコーディング、エッセイ生成、パズルの解決まで、様々な課題に長けていることが示されている。
画像生成機能の導入により、より包括的で汎用的なAIツールとなった。
現在特定されている欠陥には、幻覚、偏見、有害なコンテンツを生成するために制限されたコマンドをバイパスすることが含まれる。
論文 参考訳(メタデータ) (2024-08-27T14:40:16Z) - Improving and Assessing the Fidelity of Large Language Models Alignment to Online Communities [5.392300313326522]
大規模言語モデル(LLM)は個人やコミュニティの表現において有望であることを示している。
本稿では,LLMとオンラインコミュニティの連携を行うためのフレームワークを提案する。
ダイエットと体像を中心としたオンラインコミュニティに適用することで,我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2024-08-18T05:41:36Z) - Words Matter: Reducing Stigma in Online Conversations about Substance Use with Large Language Models [0.0]
Stigmaは、物質使用障害(SUD)に苦しむ個人に対する治療の障壁である
本研究では、ソーシャルメディア、特にRedditにおいて、匿名性によって差別行動が悪化するおそれのあるスティグマがどのように現れるかを調査する。
論文 参考訳(メタデータ) (2024-08-15T01:00:28Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Can AI Relate: Testing Large Language Model Response for Mental Health Support [23.97212082563385]
大型言語モデル(LLM)はすでにニューヨーク・ラングーン、ダナ・ファーバー、NHSなどの病院システムで臨床使用のために試験されている。
精神医療の自動化に向けて, LLM 反応が有効かつ倫理的な道筋であるか否かを評価するための評価枠組みを開発する。
論文 参考訳(メタデータ) (2024-05-20T13:42:27Z) - Leveraging Prompt-Based Large Language Models: Predicting Pandemic
Health Decisions and Outcomes Through Social Media Language [6.3576870613251675]
我々は、ソーシャルメディアの言語パターンと国民健康結果の傾向との関連性を検討するために、プロンプトベースのLCMを用いている。
私たちの研究は、ソーシャルメディアの言語パターンと現実の公衆衛生トレンドを実証的に結びつける最初のものです。
論文 参考訳(メタデータ) (2024-03-01T21:29:32Z) - Large Language Model for Mental Health: A Systematic Review [2.9429776664692526]
大規模言語モデル(LLM)は、デジタルヘルスの潜在的な応用に対して大きな注目を集めている。
この体系的なレビューは、早期スクリーニング、デジタル介入、臨床応用におけるその強みと限界に焦点を当てている。
論文 参考訳(メタデータ) (2024-02-19T17:58:41Z) - Large Language Model Distilling Medication Recommendation Model [58.94186280631342]
大規模言語モデル(LLM)の強力な意味理解と入力非依存特性を利用する。
本研究は, LLMを用いて既存の薬剤推奨手法を変換することを目的としている。
これを軽減するため,LLMの習熟度をよりコンパクトなモデルに伝達する機能レベルの知識蒸留技術を開発した。
論文 参考訳(メタデータ) (2024-02-05T08:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。