論文の概要: Dimension Reduction via Random Projection for Privacy in Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2412.04031v1
- Date: Thu, 05 Dec 2024 10:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:38:53.034667
- Title: Dimension Reduction via Random Projection for Privacy in Multi-Agent Systems
- Title(参考訳): マルチエージェントシステムにおけるプライバシのためのランダム投影による次元削減
- Authors: Puspanjali Ghoshal, Ashok Singh Sairam,
- Abstract要約: マルチエージェントシステム(MAS)では、エージェントはシステムについて観測を行い、その情報を融合センターに送信する。
融合センターは情報を集約し、可能な限り精度でシステムパラメータについて結論付けます。
システム全体の効率性を改善するために、エージェントは観測データにいくつかのプライベートパラメータを追加する必要がある。
このシナリオでは、フュージョンセンターに送信されたデータは、プライバシー上のリスクに直面します。
フュージョンセンタに通信するデータは、データプライバシ侵害や推論攻撃に対して、分散的に保護されなければならない。
コサイン類似度を用いたシステムの実用性とプライバシの定量化
- 参考スコア(独自算出の注目度): 1.3812010983144802
- License:
- Abstract: The agents in a Multi-Agent System (MAS) make observations about the system and send that information to a fusion center. The fusion center aggregates the information and concludes about the system parameters with as much accuracy as possible. However for the purposes of better efficiency of the system at large, the agents need to append some private parameters to the observed data. In this scenario, the data sent to the fusion center is faced with privacy risks. The data communicated to the fusion center must be secured against data privacy breaches and inference attacks in a decentralized manner. However, this in turn leads to a loss of utility of the data being sent to the fusion center. We quantify the utility and privacy of the system using Cosine similarity. We formulate our MAS problem in terms of deducing a concept for which compression-based methods are there in literature. Next, we propose a novel sanitization mechanism for our MAS using one such compression-based method while addressing the utility-privacy tradeoff problem.
- Abstract(参考訳): マルチエージェントシステム(MAS)のエージェントは、システムについて観測を行い、その情報を核融合センターに送信する。
融合センターは情報を集約し、可能な限り精度でシステムパラメータについて結論付けます。
しかしながら、システム全体の効率性を改善するために、エージェントは観測データにいくつかのプライベートパラメータを追加する必要がある。
このシナリオでは、フュージョンセンターに送信されたデータは、プライバシー上のリスクに直面します。
フュージョンセンタに通信するデータは、データプライバシ侵害や推論攻撃に対して、分散的に保護されなければならない。
しかし、これによって核融合センターに送信されるデータの実用性が失われる。
我々はCosineの類似性を利用してシステムの実用性とプライバシを定量化する。
我々は、文献に圧縮に基づく方法が存在する概念を導出する観点から、MAS問題を定式化する。
次に, ユーティリティ・プライバシ・トレードオフ問題に対処しつつ, 圧縮に基づく新しいMASの浄化機構を提案する。
関連論文リスト
- Differentially private and decentralized randomized power method [15.955127242261808]
微分プライバシー(DP)を実現するために導入されたノイズの分散を低減するための戦略を提案する。
精度を保ちながら、計算と通信のオーバーヘッドが低い分散化フレームワークに適応する。
本研究では,集中型環境におけるノイズスケールを,集中型環境におけるノイズスケールと類似した分散化環境で使用することができることを示す。
論文 参考訳(メタデータ) (2024-11-04T09:53:03Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Secure Distributed/Federated Learning: Prediction-Privacy Trade-Off for
Multi-Agent System [4.190359509901197]
分散学習(DLとFL)フレームワーク内で推論を行うビッグデータ時代において、中央サーバは大量のデータを処理する必要がある。
分散コンピューティングトポロジを考えると、プライバシは第一級の関心事になっている。
本研究では,テキストプライバシを意識したサーバを,エージェントごとの情報処理制約を考慮したマルチエージェント代入問題に適用する。
論文 参考訳(メタデータ) (2022-04-24T19:19:20Z) - Privacy-Preserving Federated Learning via System Immersion and Random
Matrix Encryption [4.258856853258348]
フェデレーション学習(FL)は、クライアントが中央集権的な(潜在的に敵対的な)サーバとデータを共有するのではなく、デバイス上でAIモデルをトレーニングする、コラボレーティブな分散学習のためのプライバシソリューションとして登場した。
本稿では,制御理論からの行列暗号とシステム浸漬ツールの相乗効果に基づいて,プライバシ保護フェデレーションラーニング(PPFL)フレームワークを提案する。
提案アルゴリズムは,クライアントのデータに関する情報を公開せずに,標準FLと同等の精度と収束率を無視できるコストで提供することを示す。
論文 参考訳(メタデータ) (2022-04-05T21:28:59Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - BeeTrace: A Unified Platform for Secure Contact Tracing that Breaks Data
Silos [73.84437456144994]
接触追跡は、新型コロナウイルスなどの感染症の拡散を制御する重要な方法である。
現在のソリューションでは、ビジネスデータベースや個々のデジタルデバイスに格納された大量のデータを利用できません。
データサイロを破り、プライバシーの目標を保証するために最先端の暗号化プロトコルをデプロイする統合プラットフォームであるBeeTraceを提案する。
論文 参考訳(メタデータ) (2020-07-05T10:33:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。