論文の概要: Privacy-Preserving Online Content Moderation: A Federated Learning Use
Case
- arxiv url: http://arxiv.org/abs/2209.11843v1
- Date: Fri, 23 Sep 2022 20:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 17:53:25.347435
- Title: Privacy-Preserving Online Content Moderation: A Federated Learning Use
Case
- Title(参考訳): プライバシーを守るオンラインコンテンツモデレーション:連合学習のユースケース
- Authors: Pantelitsa Leonidou, Nicolas Kourtellis, Nikos Salamanos, Michael
Sirivianos
- Abstract要約: フェデレートラーニング(Federated Learning, FL)は、ユーザのデバイス上でローカルにトレーニングを行うMLパラダイムである。
差分プライバシー(DP)を組み込んだオンラインコンテンツモデレーションのためのプライバシー保護FLフレームワークを提案する。
提案するFLフレームワークは,DP版と非DP版の両方において,集中型アプローチに近いものとなることを示す。
- 参考スコア(独自算出の注目度): 3.1925030748447747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Users are daily exposed to a large volume of harmful content on various
social network platforms. One solution is developing online moderation tools
using Machine Learning techniques. However, the processing of user data by
online platforms requires compliance with privacy policies. Federated Learning
(FL) is an ML paradigm where the training is performed locally on the users'
devices. Although the FL framework complies, in theory, with the GDPR policies,
privacy leaks can still occur. For instance, an attacker accessing the final
trained model can successfully perform unwanted inference of the data belonging
to the users who participated in the training process. In this paper, we
propose a privacy-preserving FL framework for online content moderation that
incorporates Differential Privacy (DP). To demonstrate the feasibility of our
approach, we focus on detecting harmful content on Twitter - but the overall
concept can be generalized to other types of misbehavior. We simulate a text
classifier - in FL fashion - which can detect tweets with harmful content. We
show that the performance of the proposed FL framework can be close to the
centralized approach - for both the DP and non-DP FL versions. Moreover, it has
a high performance even if a small number of clients (each with a small number
of data points) are available for the FL training. When reducing the number of
clients (from 50 to 10) or the data points per client (from 1K to 0.1K), the
classifier can still achieve ~81% AUC. Furthermore, we extend the evaluation to
four other Twitter datasets that capture different types of user misbehavior
and still obtain a promising performance (61% - 80% AUC). Finally, we explore
the overhead on the users' devices during the FL training phase and show that
the local training does not introduce excessive CPU utilization and memory
consumption overhead.
- Abstract(参考訳): ユーザーは毎日、さまざまなソーシャルネットワークプラットフォームで大量の有害コンテンツにさらされている。
1つの解決策は、機械学習技術を使ったオンラインモデレーションツールの開発である。
しかし、オンラインプラットフォームによるユーザーデータの処理にはプライバシーポリシーの遵守が必要である。
フェデレーション学習(federated learning, fl)は、ユーザのデバイス上でローカルにトレーニングを行うmlパラダイムである。
FLフレームワークは、理論的にはGDPRポリシーに準拠するが、プライバシリークが発生する可能性がある。
例えば、最終的なトレーニングモデルにアクセスするアタッカーは、トレーニングプロセスに参加したユーザに属するデータの望ましくない推論を実行することができる。
本稿では,差分プライバシー(dp)を組み込んだオンラインコンテンツモデレーションのためのプライバシー保存型flフレームワークを提案する。
このアプローチの実現可能性を示すために、私たちはtwitter上の有害なコンテンツの検出に焦点を当てています。
我々は、有害なコンテンツでツイートを検出するテキスト分類器(FL方式)をシミュレートする。
提案するFLフレームワークの性能は,DP版と非DP版の双方において,集中型アプローチに近いことが示されている。
さらに、少数のクライアント(それぞれに少数のデータポイントを持つ)がflトレーニングで利用可能であっても、高いパフォーマンスを実現している。
クライアント数(50から10)やクライアントあたりのデータポイント(1Kから0.1K)を減らすと、分類器はおよそ81%のAUCを達成することができる。
さらに、評価を他の4つのTwitterデータセットに拡張し、さまざまなタイプのユーザ動作をキャプチャし、引き続き有望なパフォーマンス(61% - 80% AUC)を得る。
最後に、flトレーニングフェーズにおけるユーザのデバイス上のオーバーヘッドを調査し、ローカルトレーニングが過剰なcpu使用率とメモリ消費オーバーヘッドを発生させないことを示す。
関連論文リスト
- Efficient Federated Unlearning under Plausible Deniability [1.795561427808824]
機械学習は、特定のデータポイントが重みに与える影響を忘れるため、MLパラメータを変更することでこの問題に対処する。
最近の文献では、データポイント(s)からのコントリビューションが、確率が1に近いデータセット内の他のデータポイントで鍛えられることが強調されている。
本稿では、FLサーバがクライアントの参加を確実に否定できるプライバシーモデルを用いて、フェデレートされたアンラーニングを実現する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T18:08:24Z) - SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Federated Unlearning for Human Activity Recognition [11.287645073129108]
本稿では,クライアントのトレーニングデータの一部を選択的に除去することで,FL HARモデルを洗練するための軽量マシンアンラーニング手法を提案する。
本手法は,テキストリトレーニング手法に匹敵する非学習精度を実現し,数十~数千の高速化を実現する。
論文 参考訳(メタデータ) (2024-01-17T15:51:36Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Learning with Noisy User Feedback [26.798303045807508]
フェデレートラーニング(FL)は、センシティブなユーザデータを使用してエッジデバイス上でMLモデルをトレーニングする方法として登場した。
本稿では,肯定的および否定的なユーザフィードバックを用いたFLモデルのトレーニング戦略を提案する。
本研究では,本手法が自己学習ベースラインよりも大幅に向上し,完全教師付きモデルに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-05-06T09:14:24Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Federated Robustness Propagation: Sharing Adversarial Robustness in
Federated Learning [98.05061014090913]
フェデレートラーニング(FL)は、生データを共有することなく、参加するユーザのセットから学習する、人気のある分散ラーニングスキーマとして登場した。
敵対的トレーニング(AT)は集中学習のための健全なソリューションを提供する。
既存のFL技術では,非IDユーザ間の対向的ロバスト性を効果的に広めることができないことを示す。
本稿では, バッチ正規化統計量を用いてロバスト性を伝達する, 単純かつ効果的な伝搬法を提案する。
論文 参考訳(メタデータ) (2021-06-18T15:52:33Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。