論文の概要: Images in Motion?: A First Look into Video Leakage in Collaborative Deep Learning
- arxiv url: http://arxiv.org/abs/2509.09742v1
- Date: Thu, 11 Sep 2025 04:34:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.873784
- Title: Images in Motion?: A First Look into Video Leakage in Collaborative Deep Learning
- Title(参考訳): 動画像? : コラボレーション的深層学習におけるビデオ漏洩の初見
- Authors: Md Fazle Rasul, Alanood Alqobaisi, Bruhadeshwar Bezawada, Indrakshi Ray,
- Abstract要約: 本稿では、勾配反転攻撃を用いたビデオデータ漏洩の最初の解析について述べる。
提案手法は,事前学習した特徴抽出器と,簡単な変換で生の映像フレームを処理する2つの一般的な映像分類手法を評価する。
実験では,攻撃者がターゲット環境から0,1,あるいはそれ以上の参照フレームにアクセス可能なシナリオにまたがってこれを検証した。
- 参考スコア(独自算出の注目度): 2.937391223068458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows multiple entities to train a shared model collaboratively. Its core, privacy-preserving principle is that participants only exchange model updates, such as gradients, and never their raw, sensitive data. This approach is fundamental for applications in domains where privacy and confidentiality are important. However, the security of this very mechanism is threatened by gradient inversion attacks, which can reverse-engineer private training data directly from the shared gradients, defeating the purpose of FL. While the impact of these attacks is known for image, text, and tabular data, their effect on video data remains an unexamined area of research. This paper presents the first analysis of video data leakage in FL using gradient inversion attacks. We evaluate two common video classification approaches: one employing pre-trained feature extractors and another that processes raw video frames with simple transformations. Our initial results indicate that the use of feature extractors offers greater resilience against gradient inversion attacks. We also demonstrate that image super-resolution techniques can enhance the frames extracted through gradient inversion attacks, enabling attackers to reconstruct higher-quality videos. Our experiments validate this across scenarios where the attacker has access to zero, one, or more reference frames from the target environment. We find that although feature extractors make attacks more challenging, leakage is still possible if the classifier lacks sufficient complexity. We, therefore, conclude that video data leakage in FL is a viable threat, and the conditions under which it occurs warrant further investigation.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のエンティティが共同で共有モデルをトレーニングすることを可能にする。
その中核的なプライバシ保護の原則は、参加者がモデルのアップデート(グラデーションなど)を交換するだけで、生の機密データを交換しないことです。
このアプローチは、プライバシと機密性が重要であるドメインのアプリケーションに基本的です。
しかし、このメカニズムのセキュリティは、FLの目的を破り、共有勾配から直接プライベートトレーニングデータをリバースエンジニアリングできる勾配反転攻撃によって脅かされている。
これらの攻撃の影響は画像、テキスト、および表データで知られているが、ビデオデータに対する影響は未だ検討されていない研究領域である。
本稿では、勾配反転攻撃を用いたFLにおけるビデオデータ漏洩の最初の解析について述べる。
提案手法は,事前学習した特徴抽出器と,簡単な変換で生の映像フレームを処理する2つの一般的な映像分類手法を評価する。
最初の結果から,特徴抽出器の使用により,勾配反転攻撃に対する抵抗性が向上することが示唆された。
また、画像超解像技術は、勾配反転攻撃によって抽出されたフレームを向上し、攻撃者が高品質な映像を再構成できることを実証した。
実験では,攻撃者がターゲット環境から0,1,あるいはそれ以上の参照フレームにアクセス可能なシナリオにまたがってこれを検証した。
特徴抽出器は攻撃をより困難にしますが、分類器に十分な複雑さがなければ、漏洩は引き続き起こります。
そこで本研究では,FLにおける映像データの漏洩が重大な脅威であり,その発生条件がさらなる調査を保証していると結論づける。
関連論文リスト
- GI-SMN: Gradient Inversion Attack against Federated Learning without Prior Knowledge [4.839514405631815]
フェデレートラーニング(FL)は、プライバシ保護機械学習アプローチとして登場した。
勾配反転攻撃はFLの勾配を利用して元のユーザデータを再現する。
スタイルマイグレーションネットワーク(GI-SMN)に基づく新しいグラディエント・インバージョン・アタックを提案する。
論文 参考訳(メタデータ) (2024-05-06T14:29:24Z) - Understanding Deep Gradient Leakage via Inversion Influence Functions [53.1839233598743]
Deep Gradient Leakage (DGL)は、勾配ベクトルからプライベートトレーニングイメージを復元する非常に効果的な攻撃である。
得られた画像とプライベート勾配との間の閉形式接続を確立する新しいインバージョンインフルエンス関数(I$2$F)を提案する。
I$2$Fは、一般的に異なるモデルアーキテクチャ、データセット、アタック実装、摂動に基づく防御に基づいてDGLを効果的に近似したことを実証的に実証した。
論文 参考訳(メタデータ) (2023-09-22T17:26:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - CAFE: Catastrophic Data Leakage in Vertical Federated Learning [65.56360219908142]
近年の研究では、分散機械学習システムにデプロイされた勾配共有機構を通じて、プライベートトレーニングデータがリークされることが示されている。
本稿では,共有集約勾配からバッチデータを効率よく回収する理論的正当性を持つ高度なデータ漏洩攻撃を提案する。
論文 参考訳(メタデータ) (2021-10-26T23:22:58Z) - Sharp Multiple Instance Learning for DeepFake Video Detection [54.12548421282696]
我々はDeepFakeビデオに、ビデオレベルのラベルのみを提供するが、フェイクビデオのすべての顔が操作されるわけではない部分的な顔攻撃という新しい問題を導入する。
インスタンス埋め込みからバッグ予測への直接マッピングを構築する鋭いMIL(S-MIL)を提案する。
FFPMSと広く使われているDFDCデータセットの実験により、S-MILは部分的に攻撃されたDeepFakeビデオ検出において他の手法よりも優れていることが確認された。
論文 参考訳(メタデータ) (2020-08-11T08:52:17Z) - Inverting Gradients -- How easy is it to break privacy in federated
learning? [13.632998588216523]
連合学習は、サーバー上のニューラルネットワークを協調的に訓練するように設計されている。
各ユーザはネットワークの現在の重みを受信し、ローカルデータに基づいてパラメータ更新(勾配)を送信します。
以前の攻撃は、選択された設定でのみ成功することによって、セキュリティの誤った感覚をもたらした。
パラメータ勾配の知識から高分解能で画像を忠実に再構成することは実際に可能であることを示す。
論文 参考訳(メタデータ) (2020-03-31T09:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。