論文の概要: Delayed takedown of illegal content on social media makes moderation ineffective
- arxiv url: http://arxiv.org/abs/2502.08841v1
- Date: Wed, 12 Feb 2025 23:16:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 20:05:35.031772
- Title: Delayed takedown of illegal content on social media makes moderation ineffective
- Title(参考訳): ソーシャルメディア上の違法コンテンツの削除遅延は、モデレーションを効果的にしない
- Authors: Bao Tran Truong, Sangyeon Kim, Gianluca Nogara, Enrico Verdolotti, Erfan Samieyan Sahneh, Florian Saurwein, Natascha Just, Luca Luceri, Silvia Giordano, Filippo Menczer,
- Abstract要約: 本研究は、違法コンテンツ削除のタイムラインと、その頻度、到達度、ソーシャルメディアへの露出との関係をモデル化する。
DSAトランスペアレンシーデータベースの実証データを用いて違法コンテンツ拡散をシミュレーションすることにより、迅速な削除(数時間以内)が違法コンテンツ拡散と露出を著しく減少させることを示した。
これらの発見は、コンテンツ削除のための厳格な削除期限をサポートするが、そのような期限は、違法なコンテンツの特定の遅れに対処することができず、コンテンツモデレーションの品質に悪影響を及ぼす可能性がある。
- 参考スコア(独自算出の注目度): 4.4134057281132195
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media platforms face legal and regulatory demands to swiftly remove illegal content, sometimes under strict takedown deadlines. However, the effects of moderation speed and the impact of takedown deadlines remain underexplored. This study models the relationship between the timeliness of illegal content removal and its prevalence, reach, and exposure on social media. By simulating illegal content diffusion using empirical data from the DSA Transparency Database, we demonstrate that rapid takedown (within hours) significantly reduces illegal content prevalence and exposure, while longer delays decrease the effectiveness of moderation efforts. While these findings support tight takedown deadlines for content removal, such deadlines cannot address the delay in identifying the illegal content and can adversely affect the quality of content moderation.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、時に厳格な削除期限の下で、違法コンテンツを迅速に削除する法的および規制上の要求に直面している。
しかし, 減速速度の影響と削除期限の影響は未定である。
本研究は、違法コンテンツ削除のタイムラインと、その頻度、到達度、ソーシャルメディアへの露出との関係をモデル化する。
DSAトランスペアレンシーデータベースの実証データを用いて不正コンテンツの拡散をシミュレーションすることにより、急激な削除(数時間以内)は違法コンテンツの出現率と露出を著しく減少させ、遅延が長くなることでモデレーションの効果を低下させることを示した。
これらの発見は、コンテンツ削除のための厳格な削除期限をサポートするが、そのような期限は、違法なコンテンツの特定の遅れに対処することができず、コンテンツモデレーションの品質に悪影響を及ぼす可能性がある。
関連論文リスト
- Evaluating the Sensitivity of LLMs to Harmful Contents in Long Input [53.19281984086319]
大規模言語モデル (LLM) は、文書処理から検索拡張生成まで、拡張コンテキストに依存したアプリケーションをサポートするようになった。
我々は,LLMの有害な内容に対する感受性を,拡張されたコンテキスト,異なるタイプ(明示的対暗黙的),位置(傾向,中間,端),有病率(プロンプトの0.01~0.50),文脈長(600~6000トークン)で評価した。
我々は同様のパターンを観察する: 適度な有害な有病率(0.25)でパフォーマンスピークがピークに達するが、内容が非常に疎い場合や支配的な場合の減少、文脈長の増大に伴うリコールの減少、初期有害な文は一般的により確実に検出され、明示的な内容は暗黙よりも一貫して認識される。
論文 参考訳(メタデータ) (2025-10-07T12:33:21Z) - Community Moderation and the New Epistemology of Fact Checking on Social Media [124.26693978503339]
ソーシャルメディアプラットフォームは伝統的に、誤解を招くコンテンツを識別しフラグを立てるために、独立した事実チェック組織に依存してきた。
X(元Twitter)とMetaは、クラウドソースのファクトチェックの独自のバージョンを立ち上げて、コミュニティ主導のコンテンツモデレーションに移行した。
主要なプラットフォーム間での誤情報検出の現在のアプローチについて検討し,コミュニティ主導型モデレーションの新たな役割を探求し,大規模クラウドチェックの約束と課題の両方を批判的に評価する。
論文 参考訳(メタデータ) (2025-05-26T14:50:18Z) - Toward Accessible and Safe Live Streaming Using Distributed Content Filtering with MoQ [0.8158530638728501]
ライブビデオストリーミングはソーシャルメディアプラットフォームでますます人気がある。
ライブストリーミングは、分析と配信の両方のレイテンシを制限する。
本稿では,リアルタイムなコンテンツモデレーションを実現するためのメディアオーバーQUICトランスポートプロトコルの拡張について述べる。
論文 参考訳(メタデータ) (2025-05-13T22:00:22Z) - Certified Mitigation of Worst-Case LLM Copyright Infringement [46.571805194176825]
コピーライト・テイクダウン(copyright takedown)とは、著作権のあるものに近いコンテンツをモデルが生成するのを防ぐ手法である。
我々はBloomScrubを提案する。BloomScrubは極めてシンプルで、非常に効果的な推論時間アプローチであり、認証された著作権の削除を提供する。
本研究は,軽量な推論時間手法が著作権保護に驚くほど有効であることを示唆する。
論文 参考訳(メタデータ) (2025-04-22T17:16:53Z) - Illusions of Relevance: Using Content Injection Attacks to Deceive Retrievers, Rerankers, and LLM Judges [52.96987928118327]
検索,リランカー,大型言語モデル(LLM)の埋め込みモデルは,コンテンツインジェクション攻撃に対して脆弱であることがわかった。
主な脅威は,(1) 意味不明な内容や有害な内容の挿入,(2) 関連性を高めるために,問合せ全体あるいはキークエリ用語の挿入,の2つである。
本研究は, 注射内容の配置や関連物質と非関連物質とのバランスなど, 攻撃の成功に影響を与える要因を系統的に検討した。
論文 参考訳(メタデータ) (2025-01-30T18:02:15Z) - Advancing Content Moderation: Evaluating Large Language Models for Detecting Sensitive Content Across Text, Images, and Videos [0.1399948157377307]
政府、教育者、そして親はしばしば、そのようなコンテンツの拡散を規制し、制御し、制限する方法についてメディアプラットフォームと対立している。
自然言語処理やコンピュータビジョンといった技術は、センシティブなコンテンツを自動的に識別し、フィルタリングするために広く使われている。
テキストと画像の両方のコンテキストを理解するためのより洗練されたアルゴリズムは、コンテンツ検閲の改善のための部屋を開くかもしれない。
論文 参考訳(メタデータ) (2024-11-26T05:29:18Z) - Explainability and Hate Speech: Structured Explanations Make Social Media Moderators Faster [72.84926097773578]
実世界のモデレーターの速度に及ぼす説明の影響について検討する。
我々の実験では、一般的な説明は速度に影響せず、しばしば無視されるが、構造化された説明はモデレーターの意思決定時間を7.4%減少させる。
論文 参考訳(メタデータ) (2024-06-06T14:23:10Z) - Algorithmic Arbitrariness in Content Moderation [1.4849645397321183]
コンテンツモデレーションツールは、サンプルを任意に有毒と分類する方法を示す。
我々は、国際公民権条約(ICCPR)が定める人権の観点からこれらの知見について議論する。
本研究は、コンテンツモデレーションアプリケーションにおいて、任意性の透明性を識別し、向上する必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-26T19:27:00Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - DeDrift: Robust Similarity Search under Content Drift [13.127769273549042]
時間的情報が長期間にわたって利用できる実世界の画像とビデオデータセットを導入・分析する。
この学習に基づいて,埋め込み量子化器を更新し,大規模インデックス構造をオンザフライで継続的に適応させる手法であるDeDriftを考案した。
DeDriftは、クエリやデータベースの内容のドリフトによる精度の劣化をほとんどなくし、完全なインデックス再構築よりも100倍高速である。
論文 参考訳(メタデータ) (2023-08-05T00:12:39Z) - Degeneration-Tuning: Using Scrambled Grid shield Unwanted Concepts from
Stable Diffusion [106.42918868850249]
SD重みから不要な概念の内容を保護するために,textbf Degeneration-Tuning (DT) という新しい手法を提案する。
この適応はモデルの重みのレベルで発生するため、DT後のSDは、CrutNetのような他の条件付き拡散フレームワークに移植して不要な概念を保護することができる。
論文 参考訳(メタデータ) (2023-08-02T03:34:44Z) - The Impact of Disinformation on a Controversial Debate on Social Media [1.299941371793082]
われわれは、移民に関するイタリアの議論において、Twitter上での偽情報の存在がいかに広まっているかを研究する。
TwitterユーザーをtextitUntrustworthinessスコアで特徴付けることで、このような悪い情報消費習慣がユーザー間で均等に分散されていないことが分かる。
論文 参考訳(メタデータ) (2021-06-30T10:29:07Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。