論文の概要: Collaborative Content Moderation in the Fediverse
- arxiv url: http://arxiv.org/abs/2501.05871v1
- Date: Fri, 10 Jan 2025 11:12:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-13 15:26:05.984903
- Title: Collaborative Content Moderation in the Fediverse
- Title(参考訳): 海外における協調的コンテンツモデレーション
- Authors: Haris Bin Zia, Aravindh Raman, Ignacio Castro, Gareth Tyson,
- Abstract要約: 本稿では、コンテンツモデレーション、例えばスパムやヘイトスピーチを削除する必要性など、特定の課題に焦点を当てる。
フェデレート学習に基づく協調型コンテンツモデレーションシステムであるFedModの設計と評価を行う。
このシステムにより、サーバは、類似サーバと部分的に訓練されたローカルコンテンツモデレーションモデルのパラメータを交換し、協調サーバ間で共有されるフェデレーションモデルを作成することができる。
- 参考スコア(独自算出の注目度): 8.001727491022999
- License:
- Abstract: The Fediverse, a group of interconnected servers providing a variety of interoperable services (e.g. micro-blogging in Mastodon) has gained rapid popularity. This sudden growth, partly driven by Elon Musk's acquisition of Twitter, has created challenges for administrators though. This paper focuses on one particular challenge: content moderation, e.g. the need to remove spam or hate speech. While centralized platforms like Facebook and Twitter rely on automated tools for moderation, their dependence on massive labeled datasets and specialized infrastructure renders them impractical for decentralized, low-resource settings like the Fediverse. In this work, we design and evaluate FedMod, a collaborative content moderation system based on federated learning. Our system enables servers to exchange parameters of partially trained local content moderation models with similar servers, creating a federated model shared among collaborating servers. FedMod demonstrates robust performance on three different content moderation tasks: harmful content detection, bot content detection, and content warning assignment, achieving average per-server macro-F1 scores of 0.71, 0.73, and 0.58, respectively.
- Abstract(参考訳): さまざまな相互運用可能なサービス(例えばMastodonのマイクロブログ)を提供する相互接続型サーバ群であるFediverseが急速に人気を集めている。
この急激な成長は、イーロン・マスクがTwitterを買収したことでも引き起こされた。
本稿では、コンテンツモデレーション、例えばスパムやヘイトスピーチを削除する必要性など、特定の課題に焦点を当てる。
FacebookやTwitterのような集中型プラットフォームはモデレーションのための自動化ツールに依存しているが、大規模なラベル付きデータセットや特殊なインフラストラクチャに依存しているため、Fediverseのような分散型で低リソースな設定では実用的ではない。
本研究では,フェデレート学習に基づく協調型コンテンツモデレーションシステムであるFedModの設計と評価を行う。
このシステムにより、サーバは、類似サーバと部分的に訓練されたローカルコンテンツモデレーションモデルのパラメータを交換し、協調サーバ間で共有されるフェデレーションモデルを作成することができる。
FedModは、有害なコンテンツ検出、ボットコンテンツ検出、コンテンツ警告割り当てという3つの異なるコンテンツモデレーションタスクで堅牢なパフォーマンスを示し、サーバ毎のマクロF1スコアはそれぞれ0.71、0.73、0.58である。
関連論文リスト
- Decentralised Moderation for Interoperable Social Networks: A Conversation-based Approach for Pleroma and the Fediverse [10.791075186479622]
本稿では,分散化された対話型コンテンツモデレーション手法を提案する。
当社のアプローチでは,各サーバ上でローカルにトレーニングされたグラフ深層学習モデル(GraphNLI)を採用している。
本モデルでは, 局所的なポスト情報を用いて学習した大規模症例に対して, 毒性を効果的に検出する。
論文 参考訳(メタデータ) (2024-04-03T20:29:40Z) - Content Moderation on Social Media in the EU: Insights From the DSA
Transparency Database [0.0]
デジタルサービス法(DSA)は、EU内の大規模なソーシャルメディアプラットフォームに対して、特定のコンテンツへのアクセスを制限するたびに明確で具体的な情報を提供することを要求する。
Reasons(SoR)のステートメントは、コンテンツモデレーション決定の透明性と精査を保証するために、DSA Transparency Databaseに収集される。
われわれは、EUのソーシャルメディアプラットフォームにおけるコンテンツモデレーション決定を早期に検討するため、2ヶ月の観察期間内に1億5600万のSoRを実証分析した。
論文 参考訳(メタデータ) (2023-12-07T16:56:19Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - MetaFed: Federated Learning among Federations with Cyclic Knowledge
Distillation for Personalized Healthcare [22.248585185394347]
フェデレートラーニングは、生のユーザデータにアクセスせずにモデルを構築することに注目を集めている。
本稿では,異なるフェデレーション間の信頼に値するFLを促進するためのMetaFedという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:36:23Z) - Toxicity in the Decentralized Web and the Potential for Model Sharing [7.499765577591378]
分散Web(DW)は、さまざまなサービスを提供するために、ピアツーピア方式で連携する独立したサーバに依存しています。
Pleroma上の117Kユーザからの9.9Mポストのデータセットを用いて、有害なコンテンツの存在を定量化する。
インスタンス毎のコンテンツモデレーションの自動化は、十分なトレーニングデータやラベル付けに必要な労力が不足しているため、困難であることを示す。
論文 参考訳(メタデータ) (2022-04-27T05:42:51Z) - Collaborative Unsupervised Visual Representation Learning from
Decentralized Data [34.06624704343615]
我々は、新しいフェデレーション付き教師なし学習フレームワーク、FedUを提案する。
このフレームワークでは、オンラインネットワークとターゲットネットワークとの対比学習を用いて、各パーティが、ラベルのないデータから独立してモデルをトレーニングする。
FedUはデータのプライバシを保護している。
論文 参考訳(メタデータ) (2021-08-14T08:34:11Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。