論文の概要: CATFL: Certificateless Authentication-based Trustworthy Federated
Learning for 6G Semantic Communications
- arxiv url: http://arxiv.org/abs/2302.00271v1
- Date: Wed, 1 Feb 2023 06:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 17:52:29.576926
- Title: CATFL: Certificateless Authentication-based Trustworthy Federated
Learning for 6G Semantic Communications
- Title(参考訳): catfl: 6gセマンティクス通信のための認証不要認証ベース信頼連合学習
- Authors: Gaolei Li, Yuanyuan Zhao, Yi Li
- Abstract要約: フェデレートラーニング(FL)はセマンティックコミュニケーションシステムのセマンティックエンコーダ/デコーダモデルを協調的に訓練するための新しいアプローチを提供する。
信頼に値するFLに関する既存の研究は、悪意のあるクライアントが生み出すデータ中毒の脅威を取り除くことを目的としている。
クライアントとサーバの同一性を相互に認証する,認証レス認証に基づく信頼できるフェデレーション学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.635921154497987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) provides an emerging approach for collaboratively
training semantic encoder/decoder models of semantic communication systems,
without private user data leaving the devices. Most existing studies on
trustworthy FL aim to eliminate data poisoning threats that are produced by
malicious clients, but in many cases, eliminating model poisoning attacks
brought by fake servers is also an important objective. In this paper, a
certificateless authentication-based trustworthy federated learning (CATFL)
framework is proposed, which mutually authenticates the identity of clients and
server. In CATFL, each client verifies the server's signature information
before accepting the delivered global model to ensure that the global model is
not delivered by false servers. On the contrary, the server also verifies the
server's signature information before accepting the delivered model updates to
ensure that they are submitted by authorized clients. Compared to PKI-based
methods, the CATFL can avoid too high certificate management overheads.
Meanwhile, the anonymity of clients shields data poisoning attacks, while
real-name registration may suffer from user-specific privacy leakage risks.
Therefore, a pseudonym generation strategy is also presented in CATFL to
achieve a trade-off between identity traceability and user anonymity, which is
essential to conditionally prevent from user-specific privacy leakage.
Theoretical security analysis and evaluation results validate the superiority
of CATFL.
- Abstract(参考訳): フェデレートラーニング(FL)は、セマンティック通信システムのセマンティックエンコーダ/デコーダモデルをデバイスを離れることなく、協調的にトレーニングするための新しいアプローチを提供する。
信頼に値するflに関する既存の研究の多くは、悪意のあるクライアントが生成するデータ中毒の脅威を排除することを目的としているが、多くの場合、偽のサーバによってもたらされるモデル中毒攻撃の排除も重要な目的である。
本稿では,クライアントとサーバの同一性を相互に認証する,認証不要な認証に基づく信頼できるフェデレーション学習(CATFL)フレームワークを提案する。
CATFLでは、各クライアントが配信されたグローバルモデルを受け入れる前にサーバの署名情報を検証し、グローバルモデルが偽サーバによって配信されないことを保証する。
逆にサーバは、配信されたモデル更新を受け取る前にサーバのシグネチャ情報を検証することで、認証されたクライアントによって送信されることを保証する。
PKIベースの手法と比較して、CATFLは証明書管理のオーバーヘッドが高すぎることを回避できる。
一方、クライアントの匿名性はデータ中毒攻撃を防ぎ、実名登録はユーザー固有のプライバシー漏洩リスクを被る可能性がある。
そのため、IDトレーサビリティとユーザ匿名のトレードオフを実現するために、CATFLにも擬名生成戦略が提示され、ユーザ固有のプライバシリークを条件付きで防止することが不可欠である。
理論的セキュリティ解析と評価結果は、CATFLの優位性を検証する。
関連論文リスト
- Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving
Federated Learning with Byzantine Users [13.924829298309415]
従来の機械学習パラダイムにおけるデータプライバシの問題を軽減するために、フェデレートラーニング(FL)技術が開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,完全同型暗号(FHE)に基づく新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T11:20:00Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - Balancing Privacy and Security in Federated Learning with FedGT: A Group
Testing Framework [90.61139449550383]
FedGTは、フェデレート学習における悪意のあるクライアントを安全なアグリゲーションで識別するためのフレームワークである。
FedGTは、誤検知や誤報の確率が低い悪意のあるクライアントを識別できることを示す。
論文 参考訳(メタデータ) (2023-05-09T14:54:59Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Preserving Privacy and Security in Federated Learning [21.241705771577116]
ユーザに対するプライバシ保証と,それらによる毒殺攻撃の検出の両方を提供する,原則的フレームワークを開発する。
我々のフレームワークは、セキュアなアグリゲーションのプライバシー保証に違反することなく、中央サーバが有毒なモデル更新を識別することを可能にする。
論文 参考訳(メタデータ) (2022-02-07T18:40:38Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。