論文の概要: Positioning AI Tools to Support Online Harm Reduction Practice: Applications and Design Directions
- arxiv url: http://arxiv.org/abs/2506.22941v1
- Date: Sat, 28 Jun 2025 16:15:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.638574
- Title: Positioning AI Tools to Support Online Harm Reduction Practice: Applications and Design Directions
- Title(参考訳): オンラインハーム削減プラクティスをサポートするAIツールの位置決め:アプリケーションと設計の方向性
- Authors: Kaixuan Wang, Jason T. Jacques, Chenxin Diao,
- Abstract要約: 大規模言語モデル(LLM)は情報提供を強化する新しい機会を提供する。
本稿では、薬物使用者(PWUD)の情報ニーズに対応するために、LCMをレスポンシブに設計する方法について検討する。
- 参考スコア(独自算出の注目度): 9.999834114980306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Access to accurate and actionable harm reduction information can directly impact the health outcomes of People Who Use Drugs (PWUD), yet existing online channels often fail to meet their diverse and dynamic needs due to limitations in adaptability, accessibility, and the pervasive impact of stigma. Large Language Models (LLMs) present a novel opportunity to enhance information provision, but their application in such a high-stakes domain is under-explored and presents socio-technical challenges. This paper investigates how LLMs can be responsibly designed to support the information needs of PWUD. Through a qualitative workshop involving diverse stakeholder groups (academics, harm reduction practitioners, and an online community moderator), we explored LLM capabilities, identified potential use cases, and delineated core design considerations. Our findings reveal that while LLMs can address some existing information barriers (e.g., by offering responsive, multilingual, and potentially less stigmatising interactions), their effectiveness is contingent upon overcoming challenges related to ethical alignment with harm reduction principles, nuanced contextual understanding, effective communication, and clearly defined operational boundaries. We articulate design pathways emphasising collaborative co-design with experts and PWUD to develop LLM systems that are helpful, safe, and responsibly governed. This work contributes empirically grounded insights and actionable design considerations for the responsible development of LLMs as supportive tools within the harm reduction ecosystem.
- Abstract(参考訳): 正確で行動可能な有害度低減情報へのアクセスは、薬物使用者(PWUD)の健康影響に直接影響する可能性があるが、既存のオンラインチャネルは、適応性、アクセシビリティ、およびスティグマの広範的影響の制限により、多様でダイナミックなニーズを満たすことができないことが多い。
大規模言語モデル(LLM)は情報提供を強化する新しい機会を提供するが、そのような高い領域におけるそれらの応用は未探索であり、社会技術的課題を提示している。
本稿では,PWUD の情報要求に対応するために LLM をレスポンシブに設計する方法について検討する。
多様な利害関係者グループ(学者、損害軽減実践者、オンラインコミュニティモデレーター)による質的なワークショップを通じて、LCMの能力、潜在的なユースケースの特定、コアデザインの考察について検討した。
LLMは既存の情報障壁(例えば、応答性、多言語性、潜在的に便宜的でない相互作用を提供すること)に対処できるが、それらの効果は、悪質化原則による倫理的整合、ニュアンスド・コンテクスト理解、効果的なコミュニケーション、明確に定義された運用境界に関する課題を克服する上で欠かせない。
我々は、専門家とPWUDとの共同設計を強調した設計経路を明確化し、有用で安全で責任を負うLLMシステムを開発する。
この研究は、害軽減エコシステムにおける支援ツールとして、LCMの責任ある開発に実証的に根ざした洞察と行動可能な設計の考察に寄与する。
関連論文リスト
- Conversational AI as a Coding Assistant: Understanding Programmers' Interactions with and Expectations from Large Language Models for Coding [5.064404027153094]
大規模言語モデル(LLM)を利用した会話型AIインタフェースは、コーディングアシスタントとしてますます利用されている。
本研究は,LLM駆動型コーディングアシスタントにおけるプログラマの利用パターン,知覚,インタラクション戦略について検討する。
論文 参考訳(メタデータ) (2025-03-14T15:06:07Z) - Personas Evolved: Designing Ethical LLM-Based Conversational Agent Personalities [8.397165953794403]
大言語モデル (LLM) は会話型ユーザインタフェース (CUI) に革命をもたらした。
LLMは膨大なデータセットから動的に応答を生成し、その振る舞いを予測しにくくし、管理しにくくする。
このワークショップは、学際的な対話を促進することによって、CUIと幅広いAIコミュニティのギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2025-02-27T20:46:54Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models and User Trust: Consequence of Self-Referential Learning Loop and the Deskilling of Healthcare Professionals [1.6574413179773761]
本稿では, LLMにおける臨床医の信頼と, 主に人間生成コンテンツからAI生成コンテンツへのデータソースの影響との関係について検討する。
主な懸念の1つは、LLMが学習のアウトプットにより依存するにつれて生じる潜在的なフィードバックループである。
調査から得られた重要なポイントは、ユーザの専門知識の重要な役割と、LCMのアウトプットを信頼し、検証するための差別化アプローチの必要性である。
論文 参考訳(メタデータ) (2024-03-15T04:04:45Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。