論文の概要: Towards Safer Online Spaces: Simulating and Assessing Intervention Strategies for Eating Disorder Discussions
- arxiv url: http://arxiv.org/abs/2409.04043v1
- Date: Fri, 6 Sep 2024 06:27:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-09 16:48:15.946790
- Title: Towards Safer Online Spaces: Simulating and Assessing Intervention Strategies for Eating Disorder Discussions
- Title(参考訳): 安全なオンライン空間を目指して : 障害を食うための介入戦略のシミュレーションと評価
- Authors: Louis Penafiel, Hsien-Te Kao, Isabel Erickson, David Chu, Robert McCormack, Kristina Lerman, Svitlana Volkova,
- Abstract要約: 本稿では,ED関連議論における介入戦略のシミュレーションと評価のための新しい実験ベッドを提案する。
本フレームワークは,複数のプラットフォーム,モデル,ED関連トピック間の合成会話を生成する。
様々な介入戦略が4次元にわたる会話のダイナミクスに与える影響を解析する。
- 参考スコア(独自算出の注目度): 2.752488721131003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eating disorders are complex mental health conditions that affect millions of people around the world. Effective interventions on social media platforms are crucial, yet testing strategies in situ can be risky. We present a novel LLM-driven experimental testbed for simulating and assessing intervention strategies in ED-related discussions. Our framework generates synthetic conversations across multiple platforms, models, and ED-related topics, allowing for controlled experimentation with diverse intervention approaches. We analyze the impact of various intervention strategies on conversation dynamics across four dimensions: intervention type, generative model, social media platform, and ED-related community/topic. We employ cognitive domain analysis metrics, including sentiment, emotions, etc., to evaluate the effectiveness of interventions. Our findings reveal that civility-focused interventions consistently improve positive sentiment and emotional tone across all dimensions, while insight-resetting approaches tend to increase negative emotions. We also uncover significant biases in LLM-generated conversations, with cognitive metrics varying notably between models (Claude-3 Haiku $>$ Mistral $>$ GPT-3.5-turbo $>$ LLaMA3) and even between versions of the same model. These variations highlight the importance of model selection in simulating realistic discussions related to ED. Our work provides valuable information on the complex dynamics of ED-related discussions and the effectiveness of various intervention strategies.
- Abstract(参考訳): 摂食障害は、世界中の何百万人もの人々に影響を及ぼす複雑な精神状態である。
ソーシャルメディアプラットフォームへの効果的な介入は重要ですが、テスト戦略はリスクがあります。
ED関連議論における介入戦略のシミュレーションと評価のための新しいLCM駆動型実験ベッドを提案する。
本フレームワークは,複数のプラットフォーム,モデル,ED関連トピック間の合成会話を生成し,多様な介入アプローチによる制御実験を可能にする。
介入型, 生成モデル, ソーシャルメディアプラットフォーム, ED関連コミュニティ・トピックの4次元にわたる会話動態に対する様々な介入戦略の影響を解析した。
介入の有効性を評価するために、感情、感情などを含む認知領域分析の指標を用いています。
以上の結果から,市民中心の介入はすべての次元において肯定的な感情や感情のトーンを一貫して改善する一方,洞察-リセットアプローチは否定的な感情を増大させる傾向にあることがわかった。
また,LLM生成会話における有意なバイアスを明らかにし,認知的指標はモデル間で顕著に異なる(Claude-3 Haiku $>$ Mistral $>$ GPT-3.5-turbo $>$ LLaMA3)。
これらのバリエーションは、EDに関する現実的な議論をシミュレートする上で、モデル選択の重要性を強調している。
本研究は、ED関連議論の複雑な力学と様々な介入戦略の有効性に関する貴重な情報を提供する。
関連論文リスト
- Decoding Echo Chambers: LLM-Powered Simulations Revealing Polarization in Social Networks [12.812531689189065]
ソーシャルメディアがエコーチャンバーなどの重要な問題に与える影響に対処する必要がある。
伝統的な研究はしばしば感情的な傾向や意見の進化を数字や公式に単純化する。
偏光現象の評価と対策を行うために, LLM を用いた社会意見ネットワークのシミュレーションを提案する。
論文 参考訳(メタデータ) (2024-09-28T12:49:02Z) - Are Large Language Models Possible to Conduct Cognitive Behavioral Therapy? [13.0263170692984]
大規模言語モデル(LLM)が検証され、心理的補助療法の新たな可能性を提供する。
精神保健の専門家は、LSMを治療に使用することについて多くの懸念を抱いている。
自然言語処理性能に優れた4つのLLM変種を評価した。
論文 参考訳(メタデータ) (2024-07-25T03:01:47Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Causal Inference for Human-Language Model Collaboration [24.096991077437146]
動的人間-LM協調における様々な相互作用戦略のISEを推定するアルゴリズムであるCausalCollabを開発した。
3つの異なる人間とLMのコラボレーションシナリオに関する実証的な調査は、CausalCollabが効果的にコンバウンドを減らすことを示しています。
論文 参考訳(メタデータ) (2024-03-30T01:08:25Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Expanding the Role of Affective Phenomena in Multimodal Interaction
Research [57.069159905961214]
マルチモーダルインタラクション, 感情計算, 自然言語処理において, 選ばれたカンファレンスから16,000以上の論文を調査した。
本論文では,感情関連論文910を同定し,情緒現象の役割について分析した。
我々は、人間の社会的行動や認知状態の機械的理解を高めるために、AIシステムによって感情と感情の予測がどのように使用されるかについて、限られた研究結果を得た。
論文 参考訳(メタデータ) (2023-05-18T09:08:39Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。