論文の概要: Large Language Models Help Reveal Unhealthy Diet and Body Concerns in Online Eating Disorders Communities
- arxiv url: http://arxiv.org/abs/2401.09647v2
- Date: Thu, 23 May 2024 05:12:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 11:36:31.474022
- Title: Large Language Models Help Reveal Unhealthy Diet and Body Concerns in Online Eating Disorders Communities
- Title(参考訳): 大規模言語モデルは、オンライン食生活障害における不健康な食事と身体の心配を解消する
- Authors: Minh Duc Chu, Zihao He, Rebecca Dorn, Kristina Lerman,
- Abstract要約: 摂食障害(ED)は世界中の何百万人もの若者、特に青年に影響を及ぼす。
EDを宣伝し、標準化するオンラインコミュニティの急増は、この公衆衛生危機に結びついている。
本研究では,大規模言語モデルをコミュニティの言語に適応させることにより,オンラインコミュニティの暗黙の態度を明らかにする新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.392300313326522
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Eating disorders (ED), a severe mental health condition with high rates of mortality and morbidity, affect millions of people globally, especially adolescents. The proliferation of online communities that promote and normalize ED has been linked to this public health crisis. However, identifying harmful communities is challenging due to the use of coded language and other obfuscations. To address this challenge, we propose a novel framework to surface implicit attitudes of online communities by adapting large language models (LLMs) to the language of the community. We describe an alignment method and evaluate results along multiple dimensions of semantics and affect. We then use the community-aligned LLM to respond to psychometric questionnaires designed to identify ED in individuals. We demonstrate that LLMs can effectively adopt community-specific perspectives and reveal significant variations in eating disorder risks in different online communities. These findings highlight the utility of LLMs to reveal implicit attitudes and collective mindsets of communities, offering new tools for mitigating harmful content on social media.
- Abstract(参考訳): 摂食障害(英語: Eating disorders, ED)は、死亡率と死亡率が高い重度の精神疾患であり、世界中の数百万人、特に青年に影響を及ぼす。
EDを宣伝し、標準化するオンラインコミュニティの急増は、この公衆衛生危機に結びついている。
しかし、コード化された言語やその他の難読化のために有害なコミュニティを特定することは困難である。
この課題に対処するために,大規模言語モデル(LLM)をコミュニティの言語に適応させることにより,オンラインコミュニティの暗黙の態度を明らかにする新しい枠組みを提案する。
本稿では,アライメント手法を記述し,セマンティクスと影響の複数の次元に沿って結果を評価する。
次に,コミュニティ対応のLCMを用いて,個人におけるEDの識別を目的とした心理測定質問紙に回答する。
我々は, LLM がコミュニティ特有の視点を効果的に適用し, 異なるオンラインコミュニティにおける摂食障害リスクの顕著な変動を明らかにすることを実証した。
これらの知見は、コミュニティの暗黙の態度と集団的考え方を明らかにするためのLCMの有用性を強調し、ソーシャルメディア上で有害コンテンツを緩和するための新しいツールを提供する。
関連論文リスト
- COMMUNITY-CROSS-INSTRUCT: Unsupervised Instruction Generation for Aligning Large Language Models to Online Communities [5.0261645603931475]
Community-Cross-Instructは、大規模言語モデルをオンラインコミュニティに整合させる、教師なしのフレームワークである。
完全に教師なしの方法で命令を生成し、拡張性とドメイン間の一般化を向上する。
この作業により、様々なオンラインコミュニティの費用対効果と自動調査が可能になる。
論文 参考訳(メタデータ) (2024-06-17T20:20:47Z) - Leveraging Prompt-Based Large Language Models: Predicting Pandemic
Health Decisions and Outcomes Through Social Media Language [6.3576870613251675]
我々は、ソーシャルメディアの言語パターンと国民健康結果の傾向との関連性を検討するために、プロンプトベースのLCMを用いている。
私たちの研究は、ソーシャルメディアの言語パターンと現実の公衆衛生トレンドを実証的に結びつける最初のものです。
論文 参考訳(メタデータ) (2024-03-01T21:29:32Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Large Language Model for Mental Health: A Systematic Review [2.9429776664692526]
大規模言語モデル(LLM)は、デジタルヘルスの潜在的な応用に対して大きな注目を集めている。
この体系的なレビューは、早期スクリーニング、デジタル介入、臨床応用におけるその強みと限界に焦点を当てている。
論文 参考訳(メタデータ) (2024-02-19T17:58:41Z) - Challenges of Large Language Models for Mental Health Counseling [4.604003661048267]
世界のメンタルヘルス危機は、精神疾患の急速な増加、限られた資源、治療を求める社会的便宜によって悪化している。
メンタルヘルス領域における大規模言語モデル(LLM)の適用は、提供された情報の正確性、有効性、信頼性に関する懸念を提起する。
本稿では, モデル幻覚, 解釈可能性, バイアス, プライバシ, 臨床効果など, 心理カウンセリングのためのLSMの開発に伴う課題について検討する。
論文 参考訳(メタデータ) (2023-11-23T08:56:41Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。