論文の概要: CATFL: Certificateless Authentication-based Trustworthy Federated
Learning for 6G Semantic Communications
- arxiv url: http://arxiv.org/abs/2302.00271v1
- Date: Wed, 1 Feb 2023 06:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 17:52:29.576926
- Title: CATFL: Certificateless Authentication-based Trustworthy Federated
Learning for 6G Semantic Communications
- Title(参考訳): catfl: 6gセマンティクス通信のための認証不要認証ベース信頼連合学習
- Authors: Gaolei Li, Yuanyuan Zhao, Yi Li
- Abstract要約: フェデレートラーニング(FL)はセマンティックコミュニケーションシステムのセマンティックエンコーダ/デコーダモデルを協調的に訓練するための新しいアプローチを提供する。
信頼に値するFLに関する既存の研究は、悪意のあるクライアントが生み出すデータ中毒の脅威を取り除くことを目的としている。
クライアントとサーバの同一性を相互に認証する,認証レス認証に基づく信頼できるフェデレーション学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.635921154497987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) provides an emerging approach for collaboratively
training semantic encoder/decoder models of semantic communication systems,
without private user data leaving the devices. Most existing studies on
trustworthy FL aim to eliminate data poisoning threats that are produced by
malicious clients, but in many cases, eliminating model poisoning attacks
brought by fake servers is also an important objective. In this paper, a
certificateless authentication-based trustworthy federated learning (CATFL)
framework is proposed, which mutually authenticates the identity of clients and
server. In CATFL, each client verifies the server's signature information
before accepting the delivered global model to ensure that the global model is
not delivered by false servers. On the contrary, the server also verifies the
server's signature information before accepting the delivered model updates to
ensure that they are submitted by authorized clients. Compared to PKI-based
methods, the CATFL can avoid too high certificate management overheads.
Meanwhile, the anonymity of clients shields data poisoning attacks, while
real-name registration may suffer from user-specific privacy leakage risks.
Therefore, a pseudonym generation strategy is also presented in CATFL to
achieve a trade-off between identity traceability and user anonymity, which is
essential to conditionally prevent from user-specific privacy leakage.
Theoretical security analysis and evaluation results validate the superiority
of CATFL.
- Abstract(参考訳): フェデレートラーニング(FL)は、セマンティック通信システムのセマンティックエンコーダ/デコーダモデルをデバイスを離れることなく、協調的にトレーニングするための新しいアプローチを提供する。
信頼に値するflに関する既存の研究の多くは、悪意のあるクライアントが生成するデータ中毒の脅威を排除することを目的としているが、多くの場合、偽のサーバによってもたらされるモデル中毒攻撃の排除も重要な目的である。
本稿では,クライアントとサーバの同一性を相互に認証する,認証不要な認証に基づく信頼できるフェデレーション学習(CATFL)フレームワークを提案する。
CATFLでは、各クライアントが配信されたグローバルモデルを受け入れる前にサーバの署名情報を検証し、グローバルモデルが偽サーバによって配信されないことを保証する。
逆にサーバは、配信されたモデル更新を受け取る前にサーバのシグネチャ情報を検証することで、認証されたクライアントによって送信されることを保証する。
PKIベースの手法と比較して、CATFLは証明書管理のオーバーヘッドが高すぎることを回避できる。
一方、クライアントの匿名性はデータ中毒攻撃を防ぎ、実名登録はユーザー固有のプライバシー漏洩リスクを被る可能性がある。
そのため、IDトレーサビリティとユーザ匿名のトレードオフを実現するために、CATFLにも擬名生成戦略が提示され、ユーザ固有のプライバシリークを条件付きで防止することが不可欠である。
理論的セキュリティ解析と評価結果は、CATFLの優位性を検証する。
関連論文リスト
- CryptoFormalEval: Integrating LLMs and Formal Verification for Automated Cryptographic Protocol Vulnerability Detection [41.94295877935867]
我々は,新たな暗号プロトコルの脆弱性を自律的に識別する大規模言語モデルの能力を評価するためのベンチマークを導入する。
私たちは、新しい、欠陥のある通信プロトコルのデータセットを作成し、AIエージェントが発見した脆弱性を自動的に検証する方法を設計しました。
論文 参考訳(メタデータ) (2024-11-20T14:16:55Z) - Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - FLoW3 -- Web3 Empowered Federated Learning [0.0]
フェデレートラーニングは、データポジショニング、モデルポジショニング、中間攻撃における人など、さまざまな種類の攻撃に影響を受けやすい。
バリデーションはNoverety DetectionとSnowballプロトコルを使用してコンセンサスによって行われる。
システムは、スマートコントラクト開発のためのpythonとFoundryの実装によって実現される。
論文 参考訳(メタデータ) (2023-12-09T04:05:07Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - FedSOV: Federated Model Secure Ownership Verification with Unforgeable
Signature [60.99054146321459]
フェデレートラーニングにより、複数のパーティがプライベートデータを公開せずにグローバルモデルを学ぶことができる。
本稿では,FedSOVという暗号署名に基づくフェデレート学習モデルのオーナシップ検証手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T12:10:02Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。