論文の概要: More than Memes: A Multimodal Topic Modeling Approach to Conspiracy Theories on Telegram
- arxiv url: http://arxiv.org/abs/2410.08642v1
- Date: Fri, 11 Oct 2024 09:10:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 22:45:00.756968
- Title: More than Memes: A Multimodal Topic Modeling Approach to Conspiracy Theories on Telegram
- Title(参考訳): ミームを超えて:テレグラム上の陰謀理論に対するマルチモーダルトピックモデリングアプローチ
- Authors: Elisabeth Steffen,
- Abstract要約: ドイツ語のテレグラムチャンネルにおける陰謀論の分析のためのマルチモーダル・トピック・モデリングの可能性について検討する。
我々は、2023年10月にドイツ語のTelegramチャンネルで投稿された40,000のTelegramメッセージのコーパスを分析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Research on conspiracy theories and related content online has traditionally focused on textual data. To address the increasing prevalence of (audio-)visual data on social media, and to capture the evolving and dynamic nature of this communication, researchers have begun to explore the potential of unsupervised approaches for analyzing multimodal online content. Our research contributes to this field by exploring the potential of multimodal topic modeling for analyzing conspiracy theories in German-language Telegram channels. Our work uses the BERTopic topic modeling approach in combination with CLIP for the analysis of textual and visual data. We analyze a corpus of ~40, 000 Telegram messages posted in October 2023 in 571 German-language Telegram channels known for disseminating conspiracy theories and other deceptive content. We explore the potentials and challenges of this approach for studying a medium-sized corpus of user-generated, text-image online content. We offer insights into the dominant topics across modalities, different text and image genres discovered during the analysis, quantitative inter-modal topic analyses, and a qualitative case study of textual, visual, and multimodal narrative strategies in the communication of conspiracy theories.
- Abstract(参考訳): ネット上の陰謀論と関連コンテンツに関する研究は、伝統的にテキストデータに焦点を当ててきた。
ソーシャルメディア上での(音声による)視覚データの普及と、このコミュニケーションの進化と動的な性質を捉えるために、研究者らはマルチモーダルオンラインコンテンツを分析するための教師なしアプローチの可能性を探り始めた。
本研究は,ドイツ語のテレグラムチャンネルにおける陰謀論を解析するためのマルチモーダル・トピック・モデリングの可能性を探ることで,この分野に寄与する。
本研究は,CLIPと組み合わせたBERTopicトピックモデリング手法を用いてテキストおよび視覚データの解析を行う。
我々は2023年10月にドイツ語のTelegramチャンネルで、約40万件のTelegramメッセージのコーパスを分析した。
ユーザ生成・テキスト画像オンラインコンテンツの中規模コーパスの研究におけるこのアプローチの可能性と課題について検討する。
我々は、モーダル性、分析中に発見された異なるテキスト、画像ジャンル、定量的なモーダル間トピック分析、および陰謀論のコミュニケーションにおけるテキスト、ビジュアル、マルチモーダルの物語戦略の定性的なケーススタディについて考察する。
関連論文リスト
- Re-calibrating methodologies in social media research: Challenge the visual, work with Speech [0.0]
本稿は,ソーシャルメディア研究者が分析において,音声に基づくデータに効果的に関与する方法を考察する。
我々の方法論的レパートリーの拡大は、プラットフォーム化されたコンテンツのより豊かな解釈を可能にすると結論づける。
論文 参考訳(メタデータ) (2024-12-17T18:47:57Z) - Large Language Models Meet Text-Centric Multimodal Sentiment Analysis: A Survey [66.166184609616]
ChatGPTは、テキスト中心のマルチモーダルタスクに大規模言語モデル(LLM)を適用する大きな可能性を開く。
既存のLLMがテキスト中心のマルチモーダル感情分析タスクにどのように適応できるかは、まだ不明である。
論文 参考訳(メタデータ) (2024-06-12T10:36:27Z) - Decoding Multilingual Topic Dynamics and Trend Identification through ARIMA Time Series Analysis on Social Networks: A Novel Data Translation Framework Enhanced by LDA/HDP Models [0.08246494848934444]
われわれは、コロナウイルスパンデミックの間、チュニジアのソーシャルネットワーク内での対話や、スポーツや政治などの有名なテーマに焦点を当てている。
まず、これらのテーマに関連するコメントの多言語コーパスを集約することから始めます。
次に、言語的差異に対処するために、ノー・イングリッシュ・トゥ・イングリッシュ・マシン翻訳手法を導入する。
論文 参考訳(メタデータ) (2024-03-18T00:01:10Z) - Discovering Latent Themes in Social Media Messaging: A Machine-in-the-Loop Approach Integrating LLMs [22.976609127865732]
ソーシャルメディアメッセージングにおける潜在テーマを明らかにするための新しいアプローチを提案する。
私たちの仕事は、ソーシャルメディアのダイナミックな性質に光を当て、現実の出来事に対するメッセージのテーマ的焦点の変化を明らかにします。
論文 参考訳(メタデータ) (2024-03-15T21:54:00Z) - Television Discourse Decoded: Comprehensive Multimodal Analytics at Scale [5.965160962617209]
我々は、インドからのプライムタイムニュース討論番組に焦点をあてて、テレビ放送された討論を分析するという複雑な課題に取り組む。
以前は、しばしばテキストのみに頼っていたが、これらの議論のマルチモーダルな本質を捉えるには不足していた。
大規模マルチメディア分析に先進的なコンピュータビジョンと音声テキスト技術を用いた総合的自動ツールキットを提案する。
論文 参考訳(メタデータ) (2024-02-20T01:20:31Z) - Recent Advances in Hate Speech Moderation: Multimodality and the Role of Large Models [52.24001776263608]
この包括的調査は、HSモデレーションの最近の歩みを掘り下げている。
大型言語モデル(LLM)と大規模マルチモーダルモデル(LMM)の急成長する役割を強調した。
研究における既存のギャップを、特に表現不足言語や文化の文脈で特定する。
論文 参考訳(メタデータ) (2024-01-30T03:51:44Z) - PromptMTopic: Unsupervised Multimodal Topic Modeling of Memes using
Large Language Models [7.388466146105024]
テキストと視覚の両方からトピックを学習する新しいマルチモーダルプロンプトベースモデルであるtextPromptMTopicを提案する。
本モデルは,テキストと視覚的モダリティ間の意味的相互作用を考慮して,ミームから学習したトピックを効果的に抽出し,クラスタ化する。
我々の研究は、今日の社会における重要なコミュニケーション形態であるミームの話題とテーマの理解に寄与する。
論文 参考訳(メタデータ) (2023-12-11T03:36:50Z) - Exploring Multi-Modal Contextual Knowledge for Open-Vocabulary Object
Detection [72.36017150922504]
教師の融合変換器から学生検出器へ学習した文脈知識を伝達するためのマルチモーダルな文脈知識蒸留フレームワーク MMC-Det を提案する。
多様なマルチモーダルマスキング言語モデリングは、従来のマルチモーダルマスキング言語モデリング(MLM)に基づくオブジェクト分散制約により実現される。
論文 参考訳(メタデータ) (2023-08-30T08:33:13Z) - Contextual Object Detection with Multimodal Large Language Models [66.15566719178327]
本稿では,コンテキストオブジェクト検出の新たな研究課題について紹介する。
言語クローゼテスト,視覚キャプション,質問応答の3つの代表的なシナリオについて検討した。
本稿では、視覚的コンテキストのエンドツーエンドの微分可能なモデリングが可能な統合マルチモーダルモデルContextDETを提案する。
論文 参考訳(メタデータ) (2023-05-29T17:50:33Z) - Cross-Media Keyphrase Prediction: A Unified Framework with
Multi-Modality Multi-Head Attention and Image Wordings [63.79979145520512]
マルチメディア投稿におけるキーワード予測におけるテキストと画像の併用効果について検討する。
複雑なマルチメディアインタラクションを捉えるために,M3H-Att(Multi-Modality Multi-Head Attention)を提案する。
我々のモデルは,従来の注目ネットワークに基づいて,過去の技術状況よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-11-03T08:44:18Z) - KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn
Knowledge-driven Conversation [66.99734491847076]
我々は,中国語の多分野知識駆動会話データセットKdConvを提案する。
私たちのコーパスには3つのドメイン(映画、音楽、旅行)から4.5Kの会話と、平均19.0の回転数で86Kの発話が含まれています。
論文 参考訳(メタデータ) (2020-04-08T16:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。