論文の概要: Differential Privacy May Have a Potential Optimization Effect on Some
Swarm Intelligence Algorithms besides Privacy-preserving
- arxiv url: http://arxiv.org/abs/2306.17370v1
- Date: Fri, 30 Jun 2023 02:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 13:43:28.362641
- Title: Differential Privacy May Have a Potential Optimization Effect on Some
Swarm Intelligence Algorithms besides Privacy-preserving
- Title(参考訳): ディファレンシャルプライバシは、プライバシ保存以外のswarmインテリジェンスアルゴリズムに潜在的な最適化効果をもたらす可能性がある
- Authors: Zhiqiang Zhang, Hong Zhu, Meiyi Xie
- Abstract要約: 本稿では,一般の個人用Swarm Intelligence Algorithm framework (DPSIAF)を提案する。
この指数的なメカニズムに基づいて、このフレームワークは既存のSIアルゴリズムをプライベートバージョンに容易に開発することができる。
実験によると、私たちのプライベートアルゴリズムでは、そのパフォーマンスはプライバシ予算に厳密に影響されない。
- 参考スコア(独自算出の注目度): 7.470078805984174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy (DP), as a promising privacy-preserving model, has
attracted great interest from researchers in recent years. Currently, the study
on combination of machine learning and DP is vibrant. In contrast, another
widely used artificial intelligence technique, the swarm intelligence (SI)
algorithm, has received little attention in the context of DP even though it
also triggers privacy concerns. For this reason, this paper attempts to combine
DP and SI for the first time, and proposes a general differentially private
swarm intelligence algorithm framework (DPSIAF). Based on the exponential
mechanism, this framework can easily develop existing SI algorithms into the
private versions. As examples, we apply the proposed DPSIAF to four popular SI
algorithms, and corresponding analyses demonstrate its effectiveness. More
interestingly, the experimental results show that, for our private algorithms,
their performance is not strictly affected by the privacy budget, and one of
the private algorithms even owns better performance than its non-private
version in some cases. These findings are different from the conventional
cognition, which indicates the uniqueness of SI with DP. Our study may provide
a new perspective on DP, and promote the synergy between metaheuristic
optimization community and privacy computing community.
- Abstract(参考訳): ディファレンシャルプライバシ(dp)は、将来性のあるプライバシ保護モデルとして、近年研究者から大きな関心を集めている。
現在,機械学習とDPの組み合わせに関する研究は活発である。
対照的に、他の広く使われている人工知能技術であるSwarm Intelligence (SI)アルゴリズムは、プライバシー上の懸念も引き起こすが、DPの文脈ではほとんど注目を集めていない。
そこで本研究では,DPとSIを初めて組み合わせ,一般の個人用Swarm Intelligence Algorithm framework(DPSIAF)を提案する。
この指数的なメカニズムに基づいて、このフレームワークは既存のSIアルゴリズムをプライベートバージョンに容易に開発することができる。
例として,提案したDPSIAFを4つの一般的なSIアルゴリズムに適用し,その有効性を示す。
さらに興味深いことに、実験結果によると、私たちのプライベートアルゴリズムでは、そのパフォーマンスはプライバシ予算に厳密に影響されず、プライベートアルゴリズムの1つが、プライベートでないバージョンよりも優れたパフォーマンスを持っている場合もあります。
これらの所見は従来の認知と異なり, DPによるSIの特異性を示す。
本研究は,dpに対する新たな視点を提供し,メタヒューリスティック最適化コミュニティとプライバシコンピューティングコミュニティの相乗効果を促進する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Provable Privacy with Non-Private Pre-Processing [56.770023668379615]
非プライベートなデータ依存前処理アルゴリズムによって生じる追加のプライバシーコストを評価するための一般的なフレームワークを提案する。
当社のフレームワークは,2つの新しい技術的概念を活用することにより,全体的なプライバシー保証の上限を確立する。
論文 参考訳(メタデータ) (2024-03-19T17:54:49Z) - Personalized DP-SGD using Sampling Mechanisms [5.50042037663784]
Phi$,$Delta$)- Personalized Differential Privacy (($Phi$,$Delta$)- PDP。
提案アルゴリズムは,複数ラウンドのパーソナライズされたサンプリング機構を使用し,DP-SGDイテレーションに組み込む。
実データを用いた実験の結果,提案アルゴリズムはDP-SGDとDP-SGDと既存のPDP機構の単純な組み合わせよりも優れていた。
論文 参考訳(メタデータ) (2023-05-24T13:56:57Z) - Stochastic Differentially Private and Fair Learning [7.971065005161566]
我々は、収束することが保証されるフェアラーニングのための最初の微分プライベートアルゴリズムを提供する。
われわれのフレームワークは、人口格差や均等化オッズなど、さまざまな公平さを許容できるほど柔軟である。
本アルゴリズムは,複数の(非バイナリ)機密属性を持つ非バイナリ分類タスクに適用可能である。
論文 参考訳(メタデータ) (2022-10-17T06:54:57Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - Differentially Private k-Means Clustering with Guaranteed Convergence [5.335316436366718]
反復的なクラスタリングアルゴリズムは、データの背後にある洞察を学習するのに役立ちます。
敵は、背景知識によって個人のプライバシーを推測することができる。
このような推論攻撃に対して個人のプライバシを保護するため、反復クラスタリングアルゴリズムの差分プライバシー(DP)を広く研究している。
論文 参考訳(メタデータ) (2020-02-03T22:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。