論文の概要: FedVideoMAE: Efficient Privacy-Preserving Federated Video Moderation
- arxiv url: http://arxiv.org/abs/2512.18809v1
- Date: Sun, 21 Dec 2025 17:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.513946
- Title: FedVideoMAE: Efficient Privacy-Preserving Federated Video Moderation
- Title(参考訳): FedVideoMAE: 効果的なプライバシー保護フェデレーションビデオモデレーション
- Authors: Ziyuan Tao, Chuanzhi Xu, Sandaru Jayawardana, Wei Bao, Kanchana Thilakarathna, Teng Joon Lim,
- Abstract要約: クラウドベースのパイプラインは、生のビデオをプライバシリスク、高い帯域幅コスト、推論レイテンシに公開する。
本稿では,自己教師型ビデオMAE表現を統合した,デバイス上での暴力検出のためのフェデレーション学習フレームワークを提案する。
提案手法では,トレーニング可能なパラメータ数を5.5M(3.5%のバックボーン)に削減し,DP-SGDにプライバシ予算とセキュアアグリゲーションを組み込む。
- 参考スコア(独自算出の注目度): 9.037323010161447
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid growth of short-form video platforms increases the need for privacy-preserving moderation, as cloud-based pipelines expose raw videos to privacy risks, high bandwidth costs, and inference latency. To address these challenges, we propose an on-device federated learning framework for video violence detection that integrates self-supervised VideoMAE representations, LoRA-based parameter-efficient adaptation, and defense-in-depth privacy protection. Our approach reduces the trainable parameter count to 5.5M (~3.5% of a 156M backbone) and incorporates DP-SGD with configurable privacy budgets and secure aggregation. Experiments on RWF-2000 with 40 clients achieve 77.25% accuracy without privacy protection and 65-66% under strong differential privacy, while reducing communication cost by $28.3\times$ compared to full-model federated learning. The code is available at: {https://github.com/zyt-599/FedVideoMAE}
- Abstract(参考訳): クラウドベースのパイプラインが生のビデオをプライバシのリスク、高い帯域幅のコスト、推論レイテンシに公開することにより、ショートフォームビデオプラットフォームの急速な成長により、プライバシ保護のモデレーションの必要性が高まっている。
これらの課題に対処するために、自己教師付きビデオMAE表現、LoRAに基づくパラメータ効率適応、詳細なプライバシー保護を統合した、デバイス上での暴力検出のためのフェデレーション付き学習フレームワークを提案する。
提案手法では、トレーニング可能なパラメータ数を5.5M(約3.5%のバックボーン)に削減し、DP-SGDに設定可能なプライバシー予算とセキュアアグリゲーションを組み込む。
40のクライアントによるRWF-2000の実験では、プライバシー保護なしで77.25%の精度、強力な差分プライバシー下で65-66%の精度が達成され、通信コストはフルモデルフェデレーション学習と比較して28.3\times$に削減された。
コードは以下の通りである。 {https://github.com/zyt-599/FedVideoMAE}
関連論文リスト
- Machine Learning with Privacy for Protected Attributes [56.44253915927481]
差分プライバシー(DP)の定義を洗練し、機能差分プライバシー(FDP)と呼ばれるより汎用的で柔軟なフレームワークを作成する。
私たちの定義はシミュレーションに基づいており、プライバシの追加/削除と置き換えの両方が可能で、保護された機能と非保護された機能の任意の分離を処理できます。
各種機械学習タスクにフレームワークを適用し,パブリック機能が利用可能であればDP学習モデルの実用性を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2025-06-24T17:53:28Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PPVF: An Efficient Privacy-Preserving Online Video Fetching Framework with Correlated Differential Privacy [24.407782529925615]
高品質なオンラインビデオサービスを維持しつつ、ユーザの要求のプライバシを維持するための新しいプライバシ保存ビデオフェッチフレームワークを提案する。
信頼されたエッジデバイスを使用して、ビデオのプレフェッチとキャッシュを行い、エッジキャッシュの効率を最適化しながら、ユーザの要求のプライバシを確保する。
その結果,PPVFは高いビデオキャッシング性能を維持しつつ,ユーザの要求するプライバシを効果的に保護することを示した。
論文 参考訳(メタデータ) (2024-08-27T02:03:36Z) - Privacy Amplification for the Gaussian Mechanism via Bounded Support [64.86780616066575]
インスタンスごとの差分プライバシー(pDP)やフィッシャー情報損失(FIL)といったデータ依存のプライバシ会計フレームワークは、固定されたトレーニングデータセット内の個人に対してきめ細かいプライバシー保証を提供する。
本稿では,データ依存会計下でのプライバシ保証を向上することを示すとともに,バウンドサポートによるガウス機構の簡単な修正を提案する。
論文 参考訳(メタデータ) (2024-03-07T21:22:07Z) - GaitGuard: Towards Private Gait in Mixed Reality [1.7277693508964933]
GaitGuardは、ビデオベースの歩行プロファイリングの脅威に対して、歩行プライバシーを保護するために設計された、新しいリアルタイムシステムである。
GitGuardはマルチスレッドフレームワークで動作し、効率的なストリームキャプチャ、ボディ検出、トラッキングのための専用のモジュールを組み込んでいる。
論文 参考訳(メタデータ) (2023-12-07T17:42:04Z) - Differentially Private Video Activity Recognition [79.36113764129092]
ビデオレベルの差分プライバシーをクリップベース分類モデルにより強化する新しいフレームワークであるMulti-Clip DP-SGDを提案する。
提案手法は,UDF-101上でのエプシロン=5のプライバシー予算で81%の精度を達成し,DP-SGDの直接適用に比べて76%改善した。
論文 参考訳(メタデータ) (2023-06-27T18:47:09Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Federated Learning with Sparsification-Amplified Privacy and Adaptive
Optimization [27.243322019117144]
フェデレートラーニング(FL)により、分散エージェントは、生データを互いに共有することなく、集中型モデルを共同で学習することができる。
スパーシフィケーションを増幅した新しいFLフレームワークを提案する。
提案手法では,ランダムなスペーシフィケーションと各エージェントの勾配摂動を統合し,プライバシー保証を増幅する。
論文 参考訳(メタデータ) (2020-08-01T20:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。