論文の概要: Characterizing Online Eating Disorder Communities with Large Language
Models
- arxiv url: http://arxiv.org/abs/2401.09647v1
- Date: Wed, 17 Jan 2024 23:32:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 18:23:54.732829
- Title: Characterizing Online Eating Disorder Communities with Large Language
Models
- Title(参考訳): 大規模言語モデルによるオンライン摂食障害コミュニティの特徴付け
- Authors: Minh Duc Chu, Aryan Karnati, Zihao He, Kristina Lerman
- Abstract要約: 我々は、ソーシャルメディアプラットフォームが、食欲不振や食欲不振などの摂食障害を促進するコンテンツやコミュニティの成長を増幅するフィードバックループを生み出していると論じる。
私たちの研究は、有害なフィードバックループを妨害し、脆弱な個人を保護するために、ソーシャルメディアのモデレーションを改善する必要性を強調しています。
- 参考スコア(独自算出の注目度): 5.8907007120959625
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rise in eating disorders, a dangerous mental health condition with high
mortality and morbidity, has been linked to the proliferation of idealized body
images on social media. However, the link between social media and eating
disorders is far more complex. We argue that social media platforms create a
feedback loop that amplifies the growth of content and communities that promote
eating disorders like anorexia and bulimia. Specifically, social media
platforms make it easy for vulnerable individuals to find and connect to
like-minded others, while group dynamic processes encourage them to stay
engaged within communities that promote and glorify harmful behaviors linked to
eating disorders. We characterize this dynamic empirically through a
combination of network and language analysis. We describe a novel framework
that leverages large language models to analyze the discourse within online
communities and probe their attitudes on topics related to eating disorders to
identify potentially harmful content. Our work emphasizes the need for better
social media moderation to disrupt harmful feedback loops and protect
vulnerable individuals.
- Abstract(参考訳): 死亡率と死亡率の高い危険な精神状態である摂食障害の上昇は、ソーシャルメディア上での理想化された身体イメージの拡散と関連している。
しかし、ソーシャルメディアと摂食障害の関連性ははるかに複雑である。
我々は、ソーシャルメディアプラットフォームが、食欲不振や食欲不振などの摂食障害を促進するコンテンツやコミュニティの成長を増幅するフィードバックループを生み出していると論じる。
特に、ソーシャルメディアプラットフォームは、脆弱な個人が同じ考えを持つ人たちを見つけ、接続しやすくする一方、グループのダイナミックなプロセスは、摂食障害に関連する有害な行動を促進し、称賛するコミュニティ内で活動し続けることを奨励する。
我々は、ネットワークと言語分析の組み合わせにより、この力学を経験的に特徴づける。
本稿では,大規模言語モデルを用いてオンラインコミュニティ内の談話を分析し,摂食障害に関連する話題に対する態度を探索し,潜在的有害な内容を特定する新しい枠組みについて述べる。
私たちの研究は、有害なフィードバックループを妨害し、脆弱な個人を保護するために、ソーシャルメディアのモデレーションを改善する必要性を強調しています。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - "It's a conversation, not a quiz": A Risk Taxonomy and Reflection Tool for LLM Adoption in Public Health [16.418366314356184]
我々は、健康専門家や健康問題経験者と焦点を合わせ、懸念を解き放つ。
参加者の視点をリスク分類にまとめる。
この分類学は、個人の行動、人間中心のケア、情報エコシステム、技術説明責任の4つの側面を強調している。
論文 参考訳(メタデータ) (2024-11-04T20:35:10Z) - Negation Blindness in Large Language Models: Unveiling the NO Syndrome in Image Generation [63.064204206220936]
基礎的な大規模言語モデル(LLM)は、私たちが技術を理解する方法を変えました。
詩の執筆からコーディング、エッセイ生成、パズルの解決まで、様々な課題に長けていることが示されている。
画像生成機能の導入により、より包括的で汎用的なAIツールとなった。
現在特定されている欠陥には、幻覚、偏見、有害なコンテンツを生成するために制限されたコマンドをバイパスすることが含まれる。
論文 参考訳(メタデータ) (2024-08-27T14:40:16Z) - Improving and Assessing the Fidelity of Large Language Models Alignment to Online Communities [5.392300313326522]
大規模言語モデル(LLM)は個人やコミュニティの表現において有望であることを示している。
本稿では,LLMとオンラインコミュニティの連携を行うためのフレームワークを提案する。
ダイエットと体像を中心としたオンラインコミュニティに適用することで,我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2024-08-18T05:41:36Z) - Leveraging Prompt-Based Large Language Models: Predicting Pandemic
Health Decisions and Outcomes Through Social Media Language [6.3576870613251675]
我々は、ソーシャルメディアの言語パターンと国民健康結果の傾向との関連性を検討するために、プロンプトベースのLCMを用いている。
私たちの研究は、ソーシャルメディアの言語パターンと現実の公衆衛生トレンドを実証的に結びつける最初のものです。
論文 参考訳(メタデータ) (2024-03-01T21:29:32Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Large Language Model for Mental Health: A Systematic Review [2.9429776664692526]
大規模言語モデル(LLM)は、デジタルヘルスの潜在的な応用に対して大きな注目を集めている。
この体系的なレビューは、早期スクリーニング、デジタル介入、臨床応用におけるその強みと限界に焦点を当てている。
論文 参考訳(メタデータ) (2024-02-19T17:58:41Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。