論文の概要: Differentially Private Multi-Agent Planning for Logistic-like Problems
- arxiv url: http://arxiv.org/abs/2008.06832v1
- Date: Sun, 16 Aug 2020 03:43:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 11:48:49.193412
- Title: Differentially Private Multi-Agent Planning for Logistic-like Problems
- Title(参考訳): 論理的問題に対する微分プライベートマルチエージェント計画
- Authors: Dayong Ye and Tianqing Zhu and Sheng Shen and Wanlei Zhou and Philip
S. Yu
- Abstract要約: 本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
- 参考スコア(独自算出の注目度): 70.3758644421664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Planning is one of the main approaches used to improve agents' working
efficiency by making plans beforehand. However, during planning, agents face
the risk of having their private information leaked. This paper proposes a
novel strong privacy-preserving planning approach for logistic-like problems.
This approach outperforms existing approaches by addressing two challenges: 1)
simultaneously achieving strong privacy, completeness and efficiency, and 2)
addressing communication constraints. These two challenges are prevalent in
many real-world applications including logistics in military environments and
packet routing in networks. To tackle these two challenges, our approach adopts
the differential privacy technique, which can both guarantee strong privacy and
control communication overhead. To the best of our knowledge, this paper is the
first to apply differential privacy to the field of multi-agent planning as a
means of preserving the privacy of agents for logistic-like problems. We
theoretically prove the strong privacy and completeness of our approach and
empirically demonstrate its efficiency. We also theoretically analyze the
communication overhead of our approach and illustrate how differential privacy
can be used to control it.
- Abstract(参考訳): 計画は、事前に計画を立てることで、エージェントの作業効率を改善するための主要なアプローチの1つである。
しかし、計画中、エージェントは個人情報をリークするリスクに直面している。
本稿では,ロジスティックな問題に対する強力なプライバシー保護計画手法を提案する。
このアプローチは,2つの課題に対処することで,既存のアプローチよりも優れています。
1)プライバシー、完全性、効率性を同時に達成し、
2) コミュニケーション制約に対処する。
これら2つの課題は、軍事環境でのロジスティクスやネットワークでのパケットルーティングなど、多くの現実世界のアプリケーションで広く見られる。
これら2つの課題に取り組むために、当社のアプローチでは差分プライバシー技術を採用しています。
本論文は,ロジスティックな問題に対するエージェントのプライバシを保護する手段として,マルチエージェント計画の分野に微分プライバシーを適用した最初の事例である。
理論上は、我々のアプローチの強力なプライバシーと完全性を証明し、その効率を実証する。
また、我々のアプローチの通信オーバーヘッドを理論的に分析し、その制御に差分プライバシーをどのように利用できるかを説明する。
関連論文リスト
- Group Decision-Making among Privacy-Aware Agents [2.88268082568407]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models
via Contextual Integrity Theory [86.8514623654506]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Killing Two Birds with One Stone: Quantization Achieves Privacy in
Distributed Learning [18.824571167583432]
コミュニケーション効率とプライバシ保護は、分散機械学習において重要な問題である。
通信効率とプライバシ保護を同時に達成できる包括的量子化ベースのソリューションを提案する。
理論的には、コミュニケーション、プライバシ、学習パフォーマンスの新たなトレードオフを捉えます。
論文 参考訳(メタデータ) (2023-04-26T13:13:04Z) - Privacy-preserving Graph Analytics: Secure Generation and Federated
Learning [72.90158604032194]
我々は、リッチな属性と関係を表現する重要な能力を提供するグラフデータのプライバシー保護分析に焦点を当てる。
本稿では,プライバシ保護グラフ生成とフェデレーショングラフ学習という2つの方向性について論じる。
論文 参考訳(メタデータ) (2022-06-30T18:26:57Z) - Privacy-Preserving Communication-Efficient Federated Multi-Armed Bandits [17.039484057126337]
通信ボトルネックとデータプライバシは、連邦化された多武装バンディット(MAB)問題において2つの重要な問題である。
このような問題に対して,プライバシ保存型通信効率アルゴリズムを設計し,後悔の観点から,プライバシ,コミュニケーション,学習性能の相互作用について検討する。
論文 参考訳(メタデータ) (2021-11-02T12:56:12Z) - On Privacy and Confidentiality of Communications in Organizational
Graphs [3.5270468102327004]
この研究は、企業コンテキストにおける機密性とプライバシの区別方法を示している。
それは、機密性を維持するためのアプローチを定式化し、差分プライバシーの原則を活用することを目的としている。
論文 参考訳(メタデータ) (2021-05-27T19:45:56Z) - Swarm Differential Privacy for Purpose Driven
Data-Information-Knowledge-Wisdom Architecture [2.38142799291692]
データ情報知識(DIKW)の広い視野のプライバシー保護について検討する。
差分プライバシーは効果的なデータプライバシーアプローチであることが判明したため、DIKWドメインの観点から見ていきます。
Swarm Intelligenceは、差分プライバシーで使用されるDIKW内のアイテムの数を効果的に最適化し、削減できます。
論文 参考訳(メタデータ) (2021-05-09T23:09:07Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。