論文の概要: When Federated Learning meets Watermarking: A Comprehensive Overview of
Techniques for Intellectual Property Protection
- arxiv url: http://arxiv.org/abs/2308.03573v1
- Date: Mon, 7 Aug 2023 13:24:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 13:32:50.027266
- Title: When Federated Learning meets Watermarking: A Comprehensive Overview of
Techniques for Intellectual Property Protection
- Title(参考訳): 連合学習が透かしを満たすとき - 知的財産保護技術の包括的概要
- Authors: Mohammed Lansari, Reda Bellafqira, Katarzyna Kapusta, Vincent
Thouvenot, Olivier Bettan, Gouenou Coatrieux
- Abstract要約: フェデレートラーニング(FL)は、複数の参加者がデータの集中化を必要とせずにディープニューラルネットワーク(DNN)を協調的にトレーニングできる技術である。
データは明示的に交換されていないが、トレーニング手順では参加者のモデルに関する情報を共有する必要がある。
これにより、個々のモデルは悪意あるアクターによる盗難や不正な配布に脆弱になる。
- 参考スコア(独自算出の注目度): 5.256257700929206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) is a technique that allows multiple participants to
collaboratively train a Deep Neural Network (DNN) without the need of
centralizing their data. Among other advantages, it comes with
privacy-preserving properties making it attractive for application in sensitive
contexts, such as health care or the military. Although the data are not
explicitly exchanged, the training procedure requires sharing information about
participants' models. This makes the individual models vulnerable to theft or
unauthorized distribution by malicious actors. To address the issue of
ownership rights protection in the context of Machine Learning (ML), DNN
Watermarking methods have been developed during the last five years. Most
existing works have focused on watermarking in a centralized manner, but only a
few methods have been designed for FL and its unique constraints. In this
paper, we provide an overview of recent advancements in Federated Learning
watermarking, shedding light on the new challenges and opportunities that arise
in this field.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数の参加者がデータの集中化を必要とせずにディープニューラルネットワーク(DNN)を協調的にトレーニングできる技術である。
プライバシー保護の特長は、医療や軍など、センシティブな状況での応用を魅力的なものにすることにある。
データは明示的に交換されていないが、トレーニング手順では参加者のモデルに関する情報を共有する必要がある。
これにより、個々のモデルは悪意あるアクターによる盗難や不正な配布に脆弱になる。
機械学習(ML)における所有権保護の問題に対処するため,過去5年間にDNN透かし法が開発されてきた。
既存の作品の多くは中央集権的な透かしに重点を置いているが、flとその独特の制約のために設計された手法はごくわずかである。
本稿では,この領域で発生する新たな課題と機会に光を当てながら,連合学習用透かしの最近の進歩について概説する。
関連論文リスト
- Privacy in Federated Learning [0.0]
フェデレートラーニング(FL)は、分散機械学習における重要な進歩である。
この章では、データ再構成のリスク、モデル反転攻撃、メンバシップ推論など、FLの中核的なプライバシに関する懸念を掘り下げている。
モデル精度とプライバシのトレードオフを調べ、実践的な実装においてこれらの要因のバランスをとることの重要性を強調します。
論文 参考訳(メタデータ) (2024-08-12T18:41:58Z) - SoK: Challenges and Opportunities in Federated Unlearning [32.0365189539138]
本論文は、この新興分野における研究動向と課題を特定することを目的として、未学習の未学習文学を深く研究することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T19:35:08Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - A Dataset and Benchmark for Copyright Infringement Unlearning from Text-to-Image Diffusion Models [52.49582606341111]
著作権法は、クリエイティブ作品を再生、配布、収益化する排他的権利をクリエイターに与えている。
テキスト・ツー・イメージ・ジェネレーションの最近の進歩は、著作権の執行に重大な課題をもたらしている。
CLIP、ChatGPT、拡散モデルを調和させてデータセットをキュレートする新しいパイプラインを導入する。
論文 参考訳(メタデータ) (2024-01-04T11:14:01Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - GRNN: Generative Regression Neural Network -- A Data Leakage Attack for
Federated Learning [3.050919759387984]
画像ベースのプライバシデータは,提案されたGenerative Regression Neural Network (GRNN) によってのみ,共有グラデーションから簡単に回復できることを示した。
本手法は複数の画像分類タスクで評価する。
その結果,提案したGRNNは,安定性,強度,精度を向上し,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-05-02T18:39:37Z) - Don't Forget to Sign the Gradients! [60.98885980669777]
GradSignsはディープニューラルネットワーク(DNN)のための新しい透かしフレームワーク
深部ニューラルネットワーク(DNN)のための新しい透かしフレームワークであるGradSignsを紹介します。
論文 参考訳(メタデータ) (2021-03-05T14:24:32Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Threats to Federated Learning: A Survey [35.724483191921244]
フェデレーテッド・ラーニング(FL)は、この新しい現実の下で有望なソリューションとして登場した。
既存のFLプロトコルの設計は、敵に悪用される脆弱性を示すことが示されている。
本稿では、FLの概念を簡潔に紹介し、脅威モデルをカバーするユニークな分類法と、FLに対する2つの主要な攻撃について述べる。
論文 参考訳(メタデータ) (2020-03-04T15:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。