論文の概要: Physics-Driven Spectrum-Consistent Federated Learning for Palmprint
Verification
- arxiv url: http://arxiv.org/abs/2308.00451v1
- Date: Tue, 1 Aug 2023 11:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:34:09.657605
- Title: Physics-Driven Spectrum-Consistent Federated Learning for Palmprint
Verification
- Title(参考訳): パームプリント検証のための物理駆動スペクトル整合フェデレート学習
- Authors: Ziyuan Yang and Andrew Beng Jin Teoh and Bob Zhang and Lu Leng and Yi
Zhang
- Abstract要約: PSFed-Palmと呼ばれるパームプリント検証のための物理駆動型スペクトル一貫性フェデレート学習法を提案する。
提案手法は、まず、局所スペクトル画像の波長範囲に応じて、クライアントを短スペクトル群と長スペクトル群に分割する。
我々は,グローバルモデルとの整合性を確保するため,局所モデルに制約を課し,モデルドリフトを効果的に防止する。
- 参考スコア(独自算出の注目度): 47.35171881187345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Palmprint as biometrics has gained increasing attention recently due to its
discriminative ability and robustness. However, existing methods mainly improve
palmprint verification within one spectrum, which is challenging to verify
across different spectrums. Additionally, in distributed server-client-based
deployment, palmprint verification systems predominantly necessitate clients to
transmit private data for model training on the centralized server, thereby
engendering privacy apprehensions. To alleviate the above issues, in this
paper, we propose a physics-driven spectrum-consistent federated learning
method for palmprint verification, dubbed as PSFed-Palm. PSFed-Palm draws upon
the inherent physical properties of distinct wavelength spectrums, wherein
images acquired under similar wavelengths display heightened resemblances. Our
approach first partitions clients into short- and long-spectrum groups
according to the wavelength range of their local spectrum images. Subsequently,
we introduce anchor models for short- and long-spectrum, which constrain the
optimization directions of local models associated with long- and
short-spectrum images. Specifically, a spectrum-consistent loss that enforces
the model parameters and feature representation to align with their
corresponding anchor models is designed. Finally, we impose constraints on the
local models to ensure their consistency with the global model, effectively
preventing model drift. This measure guarantees spectrum consistency while
protecting data privacy, as there is no need to share local data. Extensive
experiments are conducted to validate the efficacy of our proposed PSFed-Palm
approach. The proposed PSFed-Palm demonstrates compelling performance despite
only a limited number of training data. The codes will be released at
https://github.com/Zi-YuanYang/PSFed-Palm.
- Abstract(参考訳): バイオメトリックスとしてのpalmprintは、その識別能力とロバスト性によって近年注目を集めている。
しかし、既存の手法は主に1つのスペクトルにおけるパームプリントの検証を改善する。
さらに、分散サーバクライアントベースのデプロイメントでは、パームプリント検証システムは、クライアントが集中サーバ上でモデルトレーニングを行うためにプライベートデータを送信する必要があるため、プライバシの不安が増す。
そこで本研究では,PSFed-Palmと呼ばれるパームプリント検証のための物理駆動型スペクトル一貫性学習手法を提案する。
PSFed-Palmは、異なる波長スペクトルの固有の物理的特性に基づいており、類似の波長で取得された画像は、高い類似性を示す。
本手法は,まずクライアントを短波長群と長波長群に分割し,それぞれの局所スペクトル画像の波長範囲に応じて分離する。
次に,短波長および短スペクトル画像に関連する局所モデルの最適化方向を制約する短スペクトルおよび長スペクトル用アンカーモデルを提案する。
具体的には、対応するアンカーモデルと整合するモデルパラメータと特徴表現を強制するスペクトル一貫性損失を設計する。
最後に,グローバルモデルとの整合性を確保するため,局所モデルに制約を課し,モデルドリフトを効果的に防止する。
この尺度は、ローカルデータを共有する必要がないため、データのプライバシ保護中にスペクトル一貫性を保証する。
提案したPSFed-Palm法の有効性を検証するために大規模な実験を行った。
提案したPSFed-Palmは、限られたトレーニングデータにもかかわらず、魅力的なパフォーマンスを示している。
コードはhttps://github.com/Zi-YuanYang/PSFed-Palm.comで公開される。
関連論文リスト
- Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - QMGeo: Differentially Private Federated Learning via Stochastic
Quantization with Mixed Truncated Geometric Distribution [1.8492669447784602]
Federated Learning(FL)は、複数のユーザがグローバル機械学習(ML)モデルを共同でトレーニングできるフレームワークである。
このような分散フレームワークの重要な動機の1つは、ユーザにプライバシ保証を提供することである。
本稿では,DPを提供するのに必要なランダム性を導入するために,混合幾何分布を用いた新しい量子化法を提案する。
論文 参考訳(メタデータ) (2023-12-10T04:44:53Z) - Balancing Privacy Protection and Interpretability in Federated Learning [8.759803233734624]
フェデレートラーニング(FL)は、ローカルクライアントから中央サーバにモデルパラメータを共有することで、グローバルモデルを分散的にトレーニングすることを目的としている。
近年の研究では、FLは情報漏洩に悩まされており、敵はローカルクライアントから共有パラメータを解析してトレーニングデータを回復しようとする。
本稿では,FLにおけるクライアントモデルの勾配に雑音を選択的に追加する,単純かつ効果的な適応型微分プライバシー(ADP)機構を提案する。
論文 参考訳(メタデータ) (2023-02-16T02:58:22Z) - Joint Privacy Enhancement and Quantization in Federated Learning [23.36363480217293]
Federated Learning(FL)は、エッジデバイスで利用可能なプライベートデータを使用して機械学習モデルをトレーニングするための新興パラダイムである。
共同プライバシー強化・量子化法(JoPEQ)を提案する。
所望のプライバシレベルを保持しながら、必要なビットレートに応じてデータを同時に定量化することを示す。
論文 参考訳(メタデータ) (2022-08-23T11:42:58Z) - Federated Learning with Sparsified Model Perturbation: Improving
Accuracy under Client-Level Differential Privacy [27.243322019117144]
フェデレートラーニング(FL)は、分散クライアントが共同で共有統計モデルを学ぶことを可能にする。
トレーニングデータに関するセンシティブな情報は、FLで共有されたモデル更新から推測することができる。
差別化プライバシ(DP)は、これらの攻撃を防御するための最先端技術である。
本稿では,モデル精度を維持しつつ,クライアントレベルのDP保証を実現する新しいFLスキームであるFed-SMPを開発した。
論文 参考訳(メタデータ) (2022-02-15T04:05:42Z) - Don't Generate Me: Training Differentially Private Generative Models
with Sinkhorn Divergence [73.14373832423156]
そこで我々はDP-Sinkhornを提案する。DP-Sinkhornは個人データからデータ分布を差分プライバシで学習するための新しいトランスポートベース生成手法である。
差分的にプライベートな生成モデルを訓練するための既存のアプローチとは異なり、我々は敵の目的に頼らない。
論文 参考訳(メタデータ) (2021-11-01T18:10:21Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - FLAME: Differentially Private Federated Learning in the Shuffle Model [25.244726600260748]
フェデレートラーニング(FL)は、分析者がユーザーの生データを収集することなくモデルをトレーニングできる、有望な機械学習パラダイムである。
本稿では、シャッフルモデルにおけるFLフレームワークと、既存の作業から拡張された単純なプロトコル(SS-Simple)を提案する。
モデルパラメータの次元が非常に大きいため, SS-Simple は FL のプライバシー強化効果が不十分であることがわかった。
モデルサイズがユーザ人口より大きい場合の実用性を高めるため,勾配スペーシング技術を用いた高度なプロトコル(SS-Topk)を提案する。
論文 参考訳(メタデータ) (2020-09-17T04:44:27Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。