論文の概要: IPFed: Identity protected federated learning for user authentication
- arxiv url: http://arxiv.org/abs/2405.03955v1
- Date: Tue, 7 May 2024 02:29:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 15:38:26.369889
- Title: IPFed: Identity protected federated learning for user authentication
- Title(参考訳): IPFed: ユーザ認証のためのアイデンティティ保護されたフェデレーション学習
- Authors: Yosuke Kaga, Yusei Suzuki, Kenta Takahashi,
- Abstract要約: 既存の手法では,プライバシ保護と高精度の両立が困難であることを示す。
クラス埋め込みのためのランダムプロジェクションを用いたプライバシー保護型フェデレーション学習であるIPFedを提案する。
顔画像データセットの実験では、IPFedは最先端の手法の精度を維持しながら、個人情報のプライバシを保護することができる。
- 参考スコア(独自算出の注目度): 0.9176056742068812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of laws and regulations related to privacy preservation, it has become difficult to collect personal data to perform machine learning. In this context, federated learning, which is distributed learning without sharing personal data, has been proposed. In this paper, we focus on federated learning for user authentication. We show that it is difficult to achieve both privacy preservation and high accuracy with existing methods. To address these challenges, we propose IPFed which is privacy-preserving federated learning using random projection for class embedding. Furthermore, we prove that IPFed is capable of learning equivalent to the state-of-the-art method. Experiments on face image datasets show that IPFed can protect the privacy of personal data while maintaining the accuracy of the state-of-the-art method.
- Abstract(参考訳): プライバシー保護に関する法律や規制の発達に伴い、個人データを収集して機械学習を行うのが困難になっている。
この文脈では、個人データを共有せずに分散学習を行うフェデレーション学習が提案されている。
本稿では,ユーザ認証のためのフェデレーション学習に着目した。
既存の手法では,プライバシ保護と高精度の両立が困難であることを示す。
これらの課題に対処するために,クラス埋め込みのためのランダムプロジェクションを用いたプライバシー保護フェデレーション学習であるIPFedを提案する。
さらに,IPFedは最先端の手法と同等の学習が可能であることを証明した。
顔画像データセットの実験では、IPFedは最先端の手法の精度を維持しながら、個人情報のプライバシを保護することができる。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Towards Split Learning-based Privacy-Preserving Record Linkage [49.1574468325115]
ユーザデータのプライバシが要求されるアプリケーションを容易にするために、Split Learningが導入されている。
本稿では,プライバシ保護記録マッチングのための分割学習の可能性について検討する。
論文 参考訳(メタデータ) (2024-09-02T09:17:05Z) - Privacy-Preserving Deep Learning Using Deformable Operators for Secure Task Learning [14.187385349716518]
既存のプライバシー保護方法は、画像暗号化や知覚変換アプローチに依存している。
安全なタスク学習に変形可能な演算子の集合を用いる新しいプライバシ保存フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-08T19:46:20Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Secure Aggregation Is Not All You Need: Mitigating Privacy Attacks with
Noise Tolerance in Federated Learning [0.0]
フェデレーション学習は、AIモデルを作成しながらデータのプライバシを保護することを目的としている。
現在のアプローチは、データのプライバシを保護するためのセキュアなアグリゲーションプロトコルに大きく依存しています。
サーバが完全に悪意を持っていれば生じる可能性のある,セキュアなアグリゲーションに対する脆弱性を調査します。
論文 参考訳(メタデータ) (2022-11-10T05:13:08Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z) - Federated Learning and Differential Privacy: Software tools analysis,
the Sherpa.ai FL framework and methodological guidelines for preserving data
privacy [8.30788601976591]
本稿では,フェデレートラーニングと差分プライバシの全体観に基づいて構築されたSherpa.aiフェデレーションラーニングフレームワークを提案する。
本稿では,Sherpa.aiフェデレートラーニングフレームワークで方法論ガイドラインに従う方法について,分類と回帰ユースケースを用いて示す。
論文 参考訳(メタデータ) (2020-07-02T06:47:35Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。