論文の概要: Federated Face Forgery Detection Learning with Personalized Representation
- arxiv url: http://arxiv.org/abs/2406.11145v1
- Date: Mon, 17 Jun 2024 02:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 18:43:55.327304
- Title: Federated Face Forgery Detection Learning with Personalized Representation
- Title(参考訳): パーソナライズされた表現を用いたフェデレーション顔偽検出学習
- Authors: Decheng Liu, Zhan Dang, Chunlei Peng, Nannan Wang, Ruimin Hu, Xinbo Gao,
- Abstract要約: ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
- 参考スコア(独自算出の注目度): 63.90408023506508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generator technology can produce high-quality fake videos that are indistinguishable, posing a serious social threat. Traditional forgery detection methods directly centralized training on data and lacked consideration of information sharing in non-public video data scenarios and data privacy. Naturally, the federated learning strategy can be applied for privacy protection, which aggregates model parameters of clients but not original data. However, simple federated learning can't achieve satisfactory performance because of poor generalization capabilities for the real hybrid-domain forgery dataset. To solve the problem, the paper proposes a novel federated face forgery detection learning with personalized representation. The designed Personalized Forgery Representation Learning aims to learn the personalized representation of each client to improve the detection performance of individual client models. In addition, a personalized federated learning training strategy is utilized to update the parameters of the distributed detection model. Here collaborative training is conducted on multiple distributed client devices, and shared representations of these client models are uploaded to the server side for aggregation. Experiments on several public face forgery detection datasets demonstrate the superior performance of the proposed algorithm compared with state-of-the-art methods. The code is available at \emph{https://github.com/GANG370/PFR-Forgery.}
- Abstract(参考訳): ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的にトレーニングし、非パブリックなビデオデータシナリオとデータプライバシにおける情報共有の考慮を欠いていた。
当然、フェデレートされた学習戦略は、クライアントのモデルパラメータを集約するが、元のデータではないプライバシー保護に適用することができる。
しかし、実際のハイブリッドドメインフォージェリーデータセットの一般化能力が貧弱なため、単純なフェデレート学習では十分な性能が得られない。
そこで本研究では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
デザインされたPersonalized Forgery Representation Learningは、各クライアントのパーソナライズされた表現を学習し、個々のクライアントモデルの検出性能を改善することを目的としている。
さらに、分散検出モデルのパラメータを更新するために、パーソナライズド・フェデレーション・ラーニング・トレーニング戦略を利用する。
ここでは、複数の分散クライアントデバイス上で協調的なトレーニングが行われ、これらのクライアントモデルの共有表現が集約のためにサーバ側にアップロードされます。
いくつかの公開顔偽造検出データセットの実験は、提案手法の最先端手法と比較して、提案アルゴリズムの優れた性能を示す。
コードは \emph{https://github.com/GANG370/PFR-Forgery で公開されている。
※
関連論文リスト
- FedHide: Federated Learning by Hiding in the Neighbors [12.71494268219787]
本稿では,ネットワークを分類や検証タスクに組み込むためのプロトタイプベースのフェデレーション学習手法を提案する。
提案手法では, プロキシクラスプロトタイプを近接する近傍に線形に結合することで, プロキシクラスプロトタイプを生成する。
このテクニックは、クライアントが差別的な埋め込みネットワークを学習しながら、真のクラスプロトタイプを隠蔽する。
論文 参考訳(メタデータ) (2024-09-12T07:37:49Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - Personalized Federated Learning via Sequential Layer Expansion in Representation Learning [0.0]
フェデレーション学習は、個々のクライアントデバイス上で分散トレーニングを行い、中央サーバでモデルウェイトのみを共有することによって、クライアントのプライバシを保証する。
本稿では,ディープラーニングモデル全体をより密に分割した部分に分割し,適切なスケジューリング手法を適用した表現学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T06:37:19Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FedHP: Heterogeneous Federated Learning with Privacy-preserving [0.0]
フェデレーション学習は分散機械学習環境であり、パラメータを交換するだけで、クライアントがプライベートデータを共有せずにコラボレーティブなトレーニングを完了できるようにする。
本稿では,事前学習されたモデルをバックボーンとして,完全に接続されたレイヤをヘッドとして構成する,新しいフェデレーション学習手法を提案する。
勾配空間に基づくパラメータではなく、クラスの埋め込みベクトルを共有することで、クライアントはプライベートデータにより適応でき、サーバとクライアント間の通信においてより効率的になります。
論文 参考訳(メタデータ) (2023-01-27T13:32:17Z) - FedForgery: Generalized Face Forgery Detection with Residual Federated
Learning [87.746829550726]
既存の顔偽造検出方法は、取得した共有データや集中データを直接利用して訓練を行う。
顔偽造検出のための一般化された残留フェデレーション学習(FedForgery)を提案する。
顔偽造検出データセットを公開して行った実験は、提案したFedForgeryの優れた性能を証明している。
論文 参考訳(メタデータ) (2022-10-18T03:32:18Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。