論文の概要: Large Language Models Help Reveal Unhealthy Diet and Body Concerns in Online Eating Disorders Communities
- arxiv url: http://arxiv.org/abs/2401.09647v2
- Date: Thu, 23 May 2024 05:12:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 11:36:31.474022
- Title: Large Language Models Help Reveal Unhealthy Diet and Body Concerns in Online Eating Disorders Communities
- Title(参考訳): 大規模言語モデルは、オンライン食生活障害における不健康な食事と身体の心配を解消する
- Authors: Minh Duc Chu, Zihao He, Rebecca Dorn, Kristina Lerman,
- Abstract要約: 摂食障害(ED)は世界中の何百万人もの若者、特に青年に影響を及ぼす。
EDを宣伝し、標準化するオンラインコミュニティの急増は、この公衆衛生危機に結びついている。
本研究では,大規模言語モデルをコミュニティの言語に適応させることにより,オンラインコミュニティの暗黙の態度を明らかにする新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 5.392300313326522
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Eating disorders (ED), a severe mental health condition with high rates of mortality and morbidity, affect millions of people globally, especially adolescents. The proliferation of online communities that promote and normalize ED has been linked to this public health crisis. However, identifying harmful communities is challenging due to the use of coded language and other obfuscations. To address this challenge, we propose a novel framework to surface implicit attitudes of online communities by adapting large language models (LLMs) to the language of the community. We describe an alignment method and evaluate results along multiple dimensions of semantics and affect. We then use the community-aligned LLM to respond to psychometric questionnaires designed to identify ED in individuals. We demonstrate that LLMs can effectively adopt community-specific perspectives and reveal significant variations in eating disorder risks in different online communities. These findings highlight the utility of LLMs to reveal implicit attitudes and collective mindsets of communities, offering new tools for mitigating harmful content on social media.
- Abstract(参考訳): 摂食障害(英語: Eating disorders, ED)は、死亡率と死亡率が高い重度の精神疾患であり、世界中の数百万人、特に青年に影響を及ぼす。
EDを宣伝し、標準化するオンラインコミュニティの急増は、この公衆衛生危機に結びついている。
しかし、コード化された言語やその他の難読化のために有害なコミュニティを特定することは困難である。
この課題に対処するために,大規模言語モデル(LLM)をコミュニティの言語に適応させることにより,オンラインコミュニティの暗黙の態度を明らかにする新しい枠組みを提案する。
本稿では,アライメント手法を記述し,セマンティクスと影響の複数の次元に沿って結果を評価する。
次に,コミュニティ対応のLCMを用いて,個人におけるEDの識別を目的とした心理測定質問紙に回答する。
我々は, LLM がコミュニティ特有の視点を効果的に適用し, 異なるオンラインコミュニティにおける摂食障害リスクの顕著な変動を明らかにすることを実証した。
これらの知見は、コミュニティの暗黙の態度と集団的考え方を明らかにするためのLCMの有用性を強調し、ソーシャルメディア上で有害コンテンツを緩和するための新しいツールを提供する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - "It's a conversation, not a quiz": A Risk Taxonomy and Reflection Tool for LLM Adoption in Public Health [16.418366314356184]
我々は、健康専門家や健康問題経験者と焦点を合わせ、懸念を解き放つ。
参加者の視点をリスク分類にまとめる。
この分類学は、個人の行動、人間中心のケア、情報エコシステム、技術説明責任の4つの側面を強調している。
論文 参考訳(メタデータ) (2024-11-04T20:35:10Z) - Negation Blindness in Large Language Models: Unveiling the NO Syndrome in Image Generation [63.064204206220936]
基礎的な大規模言語モデル(LLM)は、私たちが技術を理解する方法を変えました。
詩の執筆からコーディング、エッセイ生成、パズルの解決まで、様々な課題に長けていることが示されている。
画像生成機能の導入により、より包括的で汎用的なAIツールとなった。
現在特定されている欠陥には、幻覚、偏見、有害なコンテンツを生成するために制限されたコマンドをバイパスすることが含まれる。
論文 参考訳(メタデータ) (2024-08-27T14:40:16Z) - Improving and Assessing the Fidelity of Large Language Models Alignment to Online Communities [5.392300313326522]
大規模言語モデル(LLM)は個人やコミュニティの表現において有望であることを示している。
本稿では,LLMとオンラインコミュニティの連携を行うためのフレームワークを提案する。
ダイエットと体像を中心としたオンラインコミュニティに適用することで,我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2024-08-18T05:41:36Z) - Leveraging Prompt-Based Large Language Models: Predicting Pandemic
Health Decisions and Outcomes Through Social Media Language [6.3576870613251675]
我々は、ソーシャルメディアの言語パターンと国民健康結果の傾向との関連性を検討するために、プロンプトベースのLCMを用いている。
私たちの研究は、ソーシャルメディアの言語パターンと現実の公衆衛生トレンドを実証的に結びつける最初のものです。
論文 参考訳(メタデータ) (2024-03-01T21:29:32Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Large Language Model for Mental Health: A Systematic Review [2.9429776664692526]
大規模言語モデル(LLM)は、デジタルヘルスの潜在的な応用に対して大きな注目を集めている。
この体系的なレビューは、早期スクリーニング、デジタル介入、臨床応用におけるその強みと限界に焦点を当てている。
論文 参考訳(メタデータ) (2024-02-19T17:58:41Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。