論文の概要: Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database
- arxiv url: http://arxiv.org/abs/2312.04431v1
- Date: Thu, 7 Dec 2023 16:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 14:08:25.368693
- Title: Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database
- Title(参考訳): EUにおけるソーシャルメディアのコンテンツモデレーション:DSA透明性データベースからの考察
- Authors: Chiara Drolsbach, Nicolas Pr\"ollochs
- Abstract要約: デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Digital Services Act (DSA) requires large social media platforms in the
EU to provide clear and specific information whenever they remove or restrict
access to certain content. These "Statements of Reasons" (SoRs) are collected
in the DSA Transparency Database to ensure transparency and scrutiny of content
moderation decisions of the providers of online platforms. In this work, we
empirically analyze 156 million SoRs within an observation period of two months
to provide an early look at content moderation decisions of social media
platforms in the EU. Our empirical analysis yields the following main findings:
(i) There are vast differences in the frequency of content moderation across
platforms. For instance, TikTok performs more than 350 times more content
moderation decisions per user than X/Twitter. (ii) Content moderation is most
commonly applied for text and videos, whereas images and other content formats
undergo moderation less frequently. (ii) The primary reasons for moderation
include content falling outside the platform's scope of service,
illegal/harmful speech, and pornography/sexualized content, with moderation of
misinformation being relatively uncommon. (iii) The majority of rule-breaking
content is detected and decided upon via automated means rather than manual
intervention. However, X/Twitter reports that it relies solely on non-automated
methods. (iv) There is significant variation in the content moderation actions
taken across platforms. Altogether, our study implies inconsistencies in how
social media platforms implement their obligations under the DSA -- resulting
in a fragmented outcome that the DSA is meant to avoid. Our findings have
important implications for regulators to clarify existing guidelines or lay out
more specific rules that ensure common standards on how social media providers
handle rule-breaking content on their platforms.
- Abstract(参考訳): デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを削除または制限するたびに、明確かつ具体的な情報を提供することを要求する。
これらの"Reasonsのステートメント(SoR)"は、オンラインプラットフォームプロバイダのコンテンツモデレーション決定の透明性と精査を確保するために、DSA Transparency Databaseに収集されます。
本研究では、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万SORを実証分析する。
私たちの経験的分析は、以下の主な発見をもたらす。
(i)プラットフォーム間でのコンテンツモデレーションの頻度には大きな違いがある。
例えば、TikTokはX/Twitterの350倍以上のコンテンツモデレーション決定を行う。
(ii)コンテンツモデレーションはテキストやビデオに最もよく適用されるが、画像やその他のコンテンツフォーマットではモデレーションの頻度は低い。
(二)モデレーションの主な理由は、プラットフォームの範囲外にあるコンテンツ、違法で有害なスピーチ、ポルノ・セクシュアル化コンテンツ等で、誤情報のモデレーションは比較的稀である。
(iii)ルール破壊コンテンツの大部分は、手動の介入ではなく、自動的な手段によって検出され、決定される。
しかし、X/Twitterは非自動化メソッドのみに依存していると報告している。
(iv)プラットフォーム間でのコンテンツモデレーションアクションには大きなバリエーションがある。
全体として、われわれの研究はソーシャルメディアプラットフォームがdsaの下での義務をどのように果たすかの不一致を示唆している。
当社の調査結果は、規制当局が既存のガイドラインを明確化したり、ソーシャルメディアプロバイダがプラットフォーム上のルール違反コンテンツをどのように扱うかの共通基準を定める上で重要な意味を持っている。
関連論文リスト
- Algorithmic Arbitrariness in Content Moderation [1.4849645397321183]
コンテンツモデレーションツールは、サンプルを任意に有毒と分類する方法を示す。
我々は、国際公民権条約(ICCPR)が定める人権の観点からこれらの知見について議論する。
本研究は、コンテンツモデレーションアプリケーションにおいて、任意性の透明性を識別し、向上する必要性を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-26T19:27:00Z) - The DSA Transparency Database: Auditing Self-reported Moderation Actions by Social Media [0.4597131601929317]
データベースの最初の100日間で、EUの8大ソーシャルメディアプラットフォームから提出された353.12万レコードを分析した。
さまざまな分野にわたる政策立案者や学者にとって,本研究は大きな意味を持つ。
論文 参考訳(メタデータ) (2023-12-16T00:02:49Z) - Content Moderation and the Formation of Online Communities: A
Theoretical Framework [7.900694093691988]
オンラインコミュニティにおけるコンテンツモデレーションポリシーの影響について検討する。
まず,安定なコミュニティを創り,維持するためのモデレーション政策の自然クラスの有効性を特徴付ける。
論文 参考訳(メタデータ) (2023-10-16T16:49:44Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z) - SoK: Content Moderation in Social Media, from Guidelines to Enforcement,
and Research to Practice [9.356143195807064]
米国におけるソーシャルメディアコンテンツモデレーションのガイドラインと実践について調査する。
主流のソーシャルメディアプラットフォームで採用されているコンテンツモデレーションと、フリンジプラットフォームで採用されているコンテンツモデレーションの違いを識別する。
プラットフォームがワンサイズのモデルから、より包括的なモデルに移行するべき理由を強調します。
論文 参考訳(メタデータ) (2022-06-29T18:48:04Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。