論文の概要: Auditable Homomorphic-based Decentralized Collaborative AI with
Attribute-based Differential Privacy
- arxiv url: http://arxiv.org/abs/2403.00023v1
- Date: Wed, 28 Feb 2024 14:51:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 23:18:33.827944
- Title: Auditable Homomorphic-based Decentralized Collaborative AI with
Attribute-based Differential Privacy
- Title(参考訳): 属性ベースのディファレンシャルプライバシを備えた監査可能な準同型ベースの分散協調ai
- Authors: Lo-Yao Yeh, Sheng-Po Tseng, Chia-Hsun Lu, Chih-Ya Shen
- Abstract要約: 我々は、Auditable Homomorphic-based Decentralized Collaborative AI(AerisAI)という、新しい分散協調型AIフレームワークを提案する。
提案したAerisAIは、暗号化されたパラメータを直接ブロックチェーンベースのスマートコントラクトに集約することで、信頼できるサードパーティの必要性を解消します。
また、モデル性能に対する差分プライバシーの負の影響を排除するための新しい概念を提案する。
- 参考スコア(独自算出の注目度): 4.555256739812733
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the notion of federated learning (FL) has led to the new
paradigm of distributed artificial intelligence (AI) with privacy preservation.
However, most current FL systems suffer from data privacy issues due to the
requirement of a trusted third party. Although some previous works introduce
differential privacy to protect the data, however, it may also significantly
deteriorate the model performance. To address these issues, we propose a novel
decentralized collaborative AI framework, named Auditable Homomorphic-based
Decentralised Collaborative AI (AerisAI), to improve security with homomorphic
encryption and fine-grained differential privacy. Our proposed AerisAI directly
aggregates the encrypted parameters with a blockchain-based smart contract to
get rid of the need of a trusted third party. We also propose a brand-new
concept for eliminating the negative impacts of differential privacy for model
performance. Moreover, the proposed AerisAI also provides the broadcast-aware
group key management based on ciphertext-policy attribute-based encryption
(CPABE) to achieve fine-grained access control based on different service-level
agreements. We provide a formal theoretical analysis of the proposed AerisAI as
well as the functionality comparison with the other baselines. We also conduct
extensive experiments on real datasets to evaluate the proposed approach. The
experimental results indicate that our proposed AerisAI significantly
outperforms the other state-of-the-art baselines.
- Abstract(参考訳): 近年,フェデレートラーニング(FL)の概念は,プライバシ保護を伴う分散人工知能(AI)の新たなパラダイムへとつながっている。
しかし、現在のFLシステムは、信頼できる第三者の要求により、データプライバシーの問題に悩まされている。
しかし、データを保護するためにディファレンシャルプライバシを導入する先行研究もあるが、モデル性能を著しく低下させる可能性がある。
これらの問題に対処するため,Auditable Homomorphic-based Decentralized Collaborative AI (AerisAI)という,新たな分散協調型AIフレームワークを提案する。
提案したAerisAIは、暗号化されたパラメータを直接ブロックチェーンベースのスマートコントラクトに集約して、信頼できるサードパーティの必要性を排除する。
また,モデル性能に対する差分プライバシーの影響をなくすための新しい概念を提案する。
さらに,提案手法では,cpabe (ciphertext-policy attribute-based encryption) に基づくブロードキャストアウェアグループ鍵管理も提供し,異なるサービスレベル合意に基づくきめ細かいアクセス制御を実現する。
提案するAerisAIの形式的理論的解析と,他のベースラインとの比較を行う。
また,提案手法を評価するために,実データセットに関する広範な実験を行う。
実験の結果,提案したAerisAIは,他の最先端のベースラインよりも優れていた。
関連論文リスト
- SoK: Decentralized AI (DeAI) [4.651101982820699]
ブロックチェーンベースのDeAIソリューションのためのSoK(Systematization of Knowledge)を提案する。
モデルライフサイクルに基づいて既存のDeAIプロトコルを分類する分類法を提案する。
我々は、ブロックチェーン機能がAIプロセスのセキュリティ、透明性、信頼性の向上にどのように貢献するかを調査する。
論文 参考訳(メタデータ) (2024-11-26T14:28:25Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - VFLGAN: Vertical Federated Learning-based Generative Adversarial Network for Vertically Partitioned Data Publication [16.055684281505474]
本稿では,垂直分割型データパブリッシングのための垂直フェデレート学習に基づく生成広告ネットワーク,VFLGANを提案する。
VFLGANが生成した合成データセットの品質は、VertiGANが生成したデータセットの3.2倍である。
また,合成データセットによるプライバシー漏洩を推定するために,会員推定攻撃を適用した実践的な監査手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T12:25:41Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Towards Industrial Private AI: A two-tier framework for data and model
security [7.773212143837498]
IIoT環境でデータとモデルパラメータの2層セキュリティを提供するプライベート(FLEP)AIフレームワークを提案する。
実験結果から,提案手法は実行時間の増加を犠牲にして,より優れた暗号化品質を実現することが示された。
論文 参考訳(メタデータ) (2021-07-27T13:28:07Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Antipodes of Label Differential Privacy: PATE and ALIBI [2.2761657094500682]
我々は、訓練されたモデルが差分プライバシー(DP)を満たす必要がある、プライバシ保護機械学習(ML)の設定について検討する。
本稿では,Laplace メカニズムと PATE フレームワークに基づく2つの新しいアプローチを提案する。
いくつかの体制において、PATEフレームワークを適応させて、非常に強力なプライバシレベルを達成する方法を示します。
論文 参考訳(メタデータ) (2021-06-07T08:14:32Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Federated Model Distillation with Noise-Free Differential Privacy [35.72801867380072]
我々はFEDMD-NFDPと呼ばれる新しいフレームワークを提案し、このフレームワークはFEDMD-NFDP機構をフェデレートされたモデル蒸留フレームワークに適用する。
FEDMD-NFDPが同等のユーティリティと通信効率を提供できることを示す。
論文 参考訳(メタデータ) (2020-09-11T17:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。