論文の概要: Federated Learning without Revealing the Decision Boundaries
- arxiv url: http://arxiv.org/abs/2103.00695v1
- Date: Mon, 1 Mar 2021 02:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 15:55:10.537331
- Title: Federated Learning without Revealing the Decision Boundaries
- Title(参考訳): 決定境界を提示しないフェデレーション学習
- Authors: Roozbeh Yousefzadeh
- Abstract要約: 最近のプライバシー保護手法は、オリジナルの画像ではなく、ノイズのように見え、元の画像に遡るのが難しい混合画像でモデルを訓練している。
これらの混合画像は、トレーニングされたモデルの決定境界に関するサンプルである。
本稿では,画像の暗号化手法を提案し,モデル内に復号モジュールを隠蔽する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We consider the recent privacy preserving methods that train the models not
on original images, but on mixed images that look like noise and hard to trace
back to the original images. We explain that those mixed images will be samples
on the decision boundaries of the trained model, and although such methods
successfully hide the contents of images from the entity in charge of federated
learning, they provide crucial information to that entity about the decision
boundaries of the trained model. Once the entity has exact samples on the
decision boundaries of the model, they may use it for effective adversarial
attacks on the model during training and/or afterwards. If we have to hide our
images from that entity, how can we trust them with the decision boundaries of
our model? As a remedy, we propose a method to encrypt the images, and have a
decryption module hidden inside the model. The entity in charge of federated
learning will only have access to a set of complex-valued coefficients, but the
model will first decrypt the images and then put them through the convolutional
layers. This way, the entity will not see the training images and they will not
know the location of the decision boundaries of the model.
- Abstract(参考訳): 最近のプライバシー保護手法では、オリジナルの画像ではなく、ノイズのように見え、元の画像にさかのぼることの難しい混合画像でモデルを訓練している。
これらの混合画像は、トレーニングされたモデルの決定境界のサンプルであり、これらの方法は、フェデレート学習を担当するエンティティから画像の内容を隠すのに成功しているが、トレーニングされたモデルの決定境界に関する重要な情報を提供する。
エンティティがモデルの決定境界に関する正確なサンプルを持っていれば、トレーニング中やその後のモデルに対する効果的な敵攻撃に使用することができる。
イメージをそのエンティティから隠さなければならない場合、モデルの決定境界をどうやって信頼すればよいのか?
救済策として,画像の暗号化方法を提案し,モデル内に復号モジュールを隠蔽する。
連合学習を担当するエンティティは、複雑な値の係数のセットのみにアクセスするが、モデルはまず画像を復号し、その後、畳み込み層に配置する。
このようにして、エンティティはトレーニングイメージが表示されず、モデルの決定境界の位置を知らないでしょう。
関連論文リスト
- How Many Van Goghs Does It Take to Van Gogh? Finding the Imitation Threshold [50.33428591760124]
学習データセットにおける概念の頻度とモデルを模倣する能力の関係について検討する。
我々は,複数のモデルをスクラッチからトレーニングする余剰コストを発生させることなく,模倣閾値を推定する効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:28:14Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Ablating Concepts in Text-to-Image Diffusion Models [57.9371041022838]
大規模テキスト・画像拡散モデルでは、強力な構成能力を持つ高忠実度画像を生成することができる。
これらのモデルは典型的には膨大な量のインターネットデータに基づいて訓練されており、しばしば著作権のある資料、ライセンスされた画像、個人写真を含んでいる。
本稿では,事前訓練されたモデルにおいて,目標概念の生成を防止し,効率的に概念を宣言する手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T17:59:42Z) - An Encryption Method of ConvMixer Models without Performance Degradation [14.505867475659276]
本稿では秘密鍵を用いたConvMixerモデルの暗号化手法を提案する。
本手法の有効性を,分類精度とモデル保護の観点から評価した。
論文 参考訳(メタデータ) (2022-07-25T07:09:16Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。