論文の概要: BigTokDetect: A Clinically-Informed Vision-Language Modeling Framework for Detecting Pro-Bigorexia Videos on TikTok
- arxiv url: http://arxiv.org/abs/2508.06515v2
- Date: Tue, 12 Aug 2025 18:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 16:17:42.788054
- Title: BigTokDetect: A Clinically-Informed Vision-Language Modeling Framework for Detecting Pro-Bigorexia Videos on TikTok
- Title(参考訳): BigTokDetect: TikTok上でのプロ・ビッグレキシアビデオ検出のための臨床応用ビジョン・ランゲージ・モデリング・フレームワーク
- Authors: Minh Duc Chu, Kshitij Pawar, Zihao He, Roxanna Sharifi, Ross Sonnenblick, Magdalayna Curry, Laura D'Adamo, Lindsay Young, Stuart B Murray, Kristina Lerman,
- Abstract要約: プロビジョレシア素材は、視覚ディスプレイ、符号化言語、モチベーションメッセージングの複雑なマルチモーダルの組み合わせを通じて、正当性のあるフィットネスコンテンツとしてマスクレードを形成する。
我々は,TikTok上での抗大食症症状を識別するための臨床インフォームド検出フレームワークであるBigTokDetectを開発した。
- 参考スコア(独自算出の注目度): 4.039034644893869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms increasingly struggle to detect harmful content that promotes muscle dysmorphic behaviors, particularly pro-bigorexia content that disproportionately affects adolescent males. Unlike traditional eating disorder detection focused on the "thin ideal," pro-bigorexia material masquerades as legitimate fitness content through complex multimodal combinations of visual displays, coded language, and motivational messaging that evade text-based detection systems. We address this challenge by developing BigTokDetect, a clinically-informed detection framework for identifying pro-bigorexia content on TikTok. We introduce BigTok, the first expert-annotated multimodal dataset of over 2,200 TikTok videos labeled by clinical psychologists and psychiatrists across five primary categories spanning body image, nutrition, exercise, supplements, and masculinity. Through a comprehensive evaluation of state-of-the-art vision language models, we achieve 82.9% accuracy on primary category classification and 69.0% on subcategory detection via domain-specific finetuning. Our ablation studies demonstrate that multimodal fusion improves performance by 5-10% over text-only approaches, with video features providing the most discriminative signals. These findings establish new benchmarks for multimodal harmful content detection and provide both the computational tools and methodological framework needed for scalable content moderation in specialized mental health domains.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、筋肉の異常な振る舞いを促進する有害なコンテンツ、特に若年男性に不均等に影響を及ぼすプロビジョレシアコンテンツを検出するのにますます苦労している。
従来の摂食障害検出とは違い、「薄い理想」に焦点をあて、視覚ディスプレイ、符号化言語、そしてテキストベースの検知システムを避けるモチベーションメッセージングの複雑な多モーダルな組み合わせを通じて、正当性のあるフィットネスコンテンツとして、プロ・ビジョレシアの物質マスケラドが焦点を絞った。
この課題に対処するため,TikTok上でのプロビジョレキシア検出のための臨床的にインフォームドされた検出フレームワークであるBigTokDetectを開発した。
BigTokは、臨床心理学者や精神科医によって、体像、栄養、運動、サプリメント、男性性を含む5つの主要なカテゴリにラベル付けされた、2,200以上のTikTokビデオのエキスパートによる最初のマルチモーダルデータセットである。
最先端の視覚言語モデルの包括的評価により、一次分類では82.9%の精度、ドメイン固有の微調整によるサブカテゴリ検出では69.0%の精度が得られる。
我々のアブレーション研究は、マルチモーダル融合がテキストのみのアプローチよりも5-10%向上し、ビデオ特徴が最も識別的な信号を提供することを示した。
これらの知見は, マルチモーダル有害なコンテンツ検出のための新しいベンチマークを確立し, 特殊なメンタルヘルス領域において, スケーラブルなコンテンツモデレーションに必要な計算ツールと方法論のフレームワークを提供する。
関連論文リスト
- A Context-aware Attention and Graph Neural Network-based Multimodal Framework for Misogyny Detection [0.11650821883155184]
ソーシャルメディア上の攻撃的なコンテンツの大部分は、女性に向けられている。
異性愛的・異性愛的なコンテンツを検出するための新しい枠組みを提案する。
このフレームワークは、Multimodal Attention Module (MANM)、Graph-based Feature Restruction Module (GFRM)、Content-specific Features Learning Module (CFLM)の3つのモジュールから構成されている。
論文 参考訳(メタデータ) (2025-08-07T06:41:17Z) - Early Detection of Mental Health Issues Using Social Media Posts [0.0]
Redditのようなソーシャルメディアプラットフォームは、ユーザー生成コンテンツの豊富なソースを表している。
メンタルヘルス危機の早期発見に言語的特徴と時間的特徴を統合したマルチモーダルディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-06T23:08:08Z) - ViKL: A Mammography Interpretation Framework via Multimodal Aggregation of Visual-knowledge-linguistic Features [54.37042005469384]
MVKLは,マルチビュー画像,詳細な表示,報告を含む最初のマルチモーダルマンモグラフィーデータセットである。
このデータセットに基づいて、教師なし事前学習のチャラリングタスクに焦点を当てる。
視覚,知識,言語機能を相乗化するフレームワークであるViKLを提案する。
論文 参考訳(メタデータ) (2024-09-24T05:01:23Z) - Uncertainty-aware Medical Diagnostic Phrase Identification and Grounding [72.18719355481052]
MRG(Messical Report Grounding)と呼ばれる新しい課題について紹介する。
MRGは医療報告から診断フレーズとその対応する接地箱を直接エンドツーエンドで識別することを目的としている。
マルチモーダルな大規模言語モデルを用いて診断フレーズを予測する,堅牢で信頼性の高いフレームワークである uMedGround を提案する。
論文 参考訳(メタデータ) (2024-04-10T07:41:35Z) - MOGAM: A Multimodal Object-oriented Graph Attention Model for Depression Detection [5.506046101113427]
ソーシャルメディアにおける抑うつを検知するためのMOGAM(Multimodal Object-Oriented Graph Attention Model)を提案する。
本モデルでは,うつ病の症状を確実に把握するために,臨床診断を行うユーザからのvlogしか含まない。
MOGAMは0.871の精度とF1スコア0.888の精度を達成した。
論文 参考訳(メタデータ) (2024-03-21T07:45:58Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - A Novel Site-Agnostic Multimodal Deep Learning Model to Identify
Pro-Eating Disorder Content on Social Media [0.0]
本研究の目的は、ソーシャルメディア投稿が摂食障害を促進するかどうかを判断できるマルチモーダルディープラーニングモデルを構築することである。
ツイートのラベル付きデータセットがTwitterから収集され、最近Xと改名され、12のディープラーニングモデルがトレーニングされ、評価された。
RoBERTaとMaxViTの融合モデルは、TumblrとRedditの未ラベルの投稿のデータセットを分類するためにデプロイされた。
論文 参考訳(メタデータ) (2023-07-06T16:04:46Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Adapting Deep Learning Methods for Mental Health Prediction on Social
Media [10.102073937554488]
メンタルヘルスは、個人の幸福のために重要な課題となる。
深層学習モデルを用いてソーシャルメディア利用者の精神状態を検出するという課題に取り組む。
ユーザが9つの異なる障害のうちの1つに苦しむかどうかを予測するバイナリ分類タスクでは、階層的な注意ネットワークが以前設定された4つの障害のベンチマークを上回っている。
論文 参考訳(メタデータ) (2020-03-17T10:49:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。