論文の概要: Malicious earworms and useful memes, how the far-right surfs on TikTok audio trends
- arxiv url: http://arxiv.org/abs/2506.20695v1
- Date: Wed, 25 Jun 2025 09:49:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:09.821349
- Title: Malicious earworms and useful memes, how the far-right surfs on TikTok audio trends
- Title(参考訳): 悪質な耳虫と有用なミーム、TikTokのオーディオトレンドにおける極右波の波
- Authors: Marloes Geboers, Marcus Bösch,
- Abstract要約: 2024年のドイツ大統領選挙に関連する右翼の過激派組織に焦点が当てられた。
分析は、TikTokのサウンドインフラがキセノフォニックなコンテンツに持続的な存在感を与えることを示す。
これらのクローキングの実践は、ユーザー生成サウンドの継続的な投稿を可能にする健全なインフラの恩恵を受ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With its features of remix, TikTok is the designated platform for meme-making and dissemination. Creative combinations of video, emoji, and filters allow for an endless stream of memes and trends animated by sound. The platform has focused its moderation on upholding physical safety, hence investing in the detection of harmful challenges. In response to the DSA, TikTok implemented opt-outs for personalized feeds and features allowing users to report illegal content. At the same time, the platform remains subject to scrutiny. Centering on the role of sound and its intersections with ambiguous memes, the presented research probed right-wing extremist formations relating to the 2024 German state elections. The analysis evidences how the TikTok sound infrastructure affords a sustained presence of xenophobic content, often cloaked through vernacular modes of communication. These cloaking practices benefit from a sound infrastructure that affords the ongoing posting of user-generated sounds that instantly spread through the use-this-sound button. Importantly, these sounds are often not clearly recognizable as networkers of extremist content. Songs that do contain hateful lyrics are not eligible for personalized feeds, however, they remain online where they profit from intersecting with benign meme trends, rendering them visible in search results.
- Abstract(参考訳): リミックス機能を備えたTikTokは、ミーム作りと普及のためのプラットフォームとして指定されている。
ビデオ、絵文字、フィルターの創造的な組み合わせは、音によってアニメーションされるミームやトレンドの無限のストリームを可能にする。
プラットフォームは、物理的安全性の維持に重点を置いているため、有害な課題の検出に投資している。
DSAへの対応としてTikTokは、パーソナライズされたフィードとユーザーが違法コンテンツを報告できる機能のためのオプトアウトを実装した。
同時に、ホームは精査の対象となっている。
調査では、音の役割と、あいまいなミームとの交差点を中心に、2024年のドイツ大統領選挙に関連する右翼の過激派組織を調査した。
この分析は、TikTokの音のインフラがキセノフォニックな内容の持続的な存在を許容し、しばしば頂点的なコミュニケーションのモードを通してクロークされることを示す。
これらのクローキングの実践は、ユーザー生成音の投稿を継続する健全なインフラの恩恵を受け、使用音ボタンを通じて即座に拡散する。
重要なことに、これらの音は過激派コンテンツのネットワークとして明確に認識されないことが多い。
憎悪に満ちた歌詞を含む曲は、パーソナライズされたフィードには適用されないが、彼らはオンラインに留まり、良質なミームトレンドと交わって、検索結果でそれを見えるようにする。
関連論文リスト
- A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Hate Speech Classification Using SVM and Naive BAYES [0.0]
多くの国は、オンラインヘイトスピーチを避けるための法律を開発した。
しかし、オンラインコンテンツが成長を続けるにつれ、ヘイトスピーチが広まる。
ヘイトスピーチを検出して削除するために、オンラインユーザーコンテンツを自動的に処理することが重要である。
論文 参考訳(メタデータ) (2022-03-21T17:15:38Z) - Feels Bad Man: Dissecting Automated Hateful Meme Detection Through the
Lens of Facebook's Challenge [10.775419935941008]
我々は,現在最先端のマルチモーダル機械学習モデルのヘイトフルミーム検出に対する有効性を評価する。
4chanの"Politically Incorrect"ボード(/pol/)とFacebookのHateful Memes Challengeデータセットの12,140と10,567の2つのベンチマークデータセットを使用します。
分類性能におけるマルチモーダリティの重要性,主流のソーシャルプラットフォーム上でのWebコミュニティの影響力,その逆の3つの実験を行った。
論文 参考訳(メタデータ) (2022-02-17T07:52:22Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - It's a Thin Line Between Love and Hate: Using the Echo in Modeling
Dynamics of Racist Online Communities [0.8164433158925593]
2016年初め、(((echo))という記号は、アメリカ合衆国大統領選挙の激化と共に、主流のソーシャルネットワークに普及した。
ユダヤ人の遺産をタグ付けするために、アルト右派、白人至上主義者、インターネットトロルのメンバーが使用した。
この流行するミーム、その意味、そしてその機能を追跡することは、その意味的あいまいさによって明らかになっている。
論文 参考訳(メタデータ) (2020-11-16T20:47:54Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。