論文の概要: Enhancing Privacy in the Early Detection of Sexual Predators Through Federated Learning and Differential Privacy
- arxiv url: http://arxiv.org/abs/2501.12537v1
- Date: Tue, 21 Jan 2025 23:01:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 16:53:53.651747
- Title: Enhancing Privacy in the Early Detection of Sexual Predators Through Federated Learning and Differential Privacy
- Title(参考訳): フェデレーションラーニングと差分プライバシによる性的捕食者の早期検出におけるプライバシ向上
- Authors: Khaoula Chehbouni, Martine De Cock, Gilles Caporossi, Afaf Taik, Reihaneh Rabbany, Golnoosh Farnadi,
- Abstract要約: 新型コロナウイルス(COVID-19)のパンデミックにより、オンライングルーミングのケースが大幅に急増した。
産業とアカデミアにおけるグルーミングの検出には、私的会話へのアクセスと監視が関係している。
性的捕食者の早期発見のためのプライバシ保護パイプラインを実装した。
- 参考スコア(独自算出の注目度): 10.420270891113566
- License:
- Abstract: The increased screen time and isolation caused by the COVID-19 pandemic have led to a significant surge in cases of online grooming, which is the use of strategies by predators to lure children into sexual exploitation. Previous efforts to detect grooming in industry and academia have involved accessing and monitoring private conversations through centrally-trained models or sending private conversations to a global server. In this work, we implement a privacy-preserving pipeline for the early detection of sexual predators. We leverage federated learning and differential privacy in order to create safer online spaces for children while respecting their privacy. We investigate various privacy-preserving implementations and discuss their benefits and shortcomings. Our extensive evaluation using real-world data proves that privacy and utility can coexist with only a slight reduction in utility.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)のパンデミックによる画面の時間と隔離が増加し、オンラインでのグルーミングのケースが大幅に急増した。
業界や学界におけるグルーミングの検出には、中央で訓練されたモデルを通じてプライベートな会話にアクセスおよび監視したり、グローバルなサーバにプライベートな会話を送信することがあった。
本研究では,性的捕食者の早期発見のためのプライバシ保護パイプラインを実装した。
子どもたちのプライバシーを尊重しながら、より安全なオンラインスペースを構築するために、フェデレーション学習と差分プライバシーを活用します。
プライバシ保護実装について検討し,そのメリットと欠点について考察する。
実世界のデータを用いた広範囲な評価は、プライバシーとユーティリティは、ユーティリティのわずかに削減されただけで共存可能であることを証明している。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyCube: Data Physicalization for Enhancing Privacy Awareness in IoT [1.2564343689544843]
スマートホーム環境におけるプライバシー意識を高めるために設計された新しいデータ物理化であるPrivacyCubeについて説明する。
PrivacyCubeは、プライバシ関連の通知を表示することによって、IoTデータ消費を可視化する。
以上の結果から,プライバシキューブは家庭内におけるIoTプライバシの理解を向上し,プライバシ意識を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-08T12:20:42Z) - PrivacyRestore: Privacy-Preserving Inference in Large Language Models via Privacy Removal and Restoration [18.11846784025521]
PrivacyRestoreは、推論中のユーザの入力のプライバシを保護するためのプラグイン・アンド・プレイ方式である。
プライバシストアの有効性を評価するために、医療ドメインと法律ドメインをカバーする3つのデータセットを作成します。
論文 参考訳(メタデータ) (2024-06-03T14:57:39Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Momentum Gradient Descent Federated Learning with Local Differential
Privacy [10.60240656423935]
ビッグデータの時代、個人情報のプライバシーはより顕著になった。
本稿では,機械学習モデルの性能向上のために,フェデレーション学習と局所差分プライバシーをモーメント勾配勾配下で統合することを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:30:38Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z) - Give more data, awareness and control to individual citizens, and they
will help COVID-19 containment [74.10257867142049]
連絡先追跡アプリは、多くの国で大規模採用が提案されている。
中央集権的なアプローチは、市民のプライバシーと不必要に強力なデジタル監視に対する懸念を提起する。
我々は、個人の「個人データストア」にのみ連絡先と位置情報を収集する分散的アプローチを提唱する。
論文 参考訳(メタデータ) (2020-04-10T20:30:37Z) - Dis-Empowerment Online: An Investigation of Privacy-Sharing Perceptions
& Method Preferences [6.09170287691728]
プライバシーのエンパワーメントの認識は、意味、能力、選択の次元をまたいだ共有の認識とは異なることが分かっています。
米国、英国、ドイツの間では、プライバシーメソッドの嗜好の類似点と相違点が見つかります。
プライバシ非エンパワーメントの認識をオンラインのプライバシ行動パターンにマッピングすることにより、今後の研究に重要な基盤を提供する。
論文 参考訳(メタデータ) (2020-03-19T19:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。