論文の概要: Swarm Differential Privacy for Purpose Driven
Data-Information-Knowledge-Wisdom Architecture
- arxiv url: http://arxiv.org/abs/2105.04045v1
- Date: Sun, 9 May 2021 23:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 03:14:31.934229
- Title: Swarm Differential Privacy for Purpose Driven
Data-Information-Knowledge-Wisdom Architecture
- Title(参考訳): Swarm Differential Privacy for Purpose Driven Data-Information-Knowledge-Wisdom Architecture
- Authors: Yingbo Li, Yucong Duan, Zakaria Maama, Haoyang Che, Anamaria-Beatrice
Spulber, Stelios Fuentes
- Abstract要約: データ情報知識(DIKW)の広い視野のプライバシー保護について検討する。
差分プライバシーは効果的なデータプライバシーアプローチであることが判明したため、DIKWドメインの観点から見ていきます。
Swarm Intelligenceは、差分プライバシーで使用されるDIKW内のアイテムの数を効果的に最適化し、削減できます。
- 参考スコア(独自算出の注目度): 2.38142799291692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy protection has recently attracted the attention of both academics and
industries. Society protects individual data privacy through complex legal
frameworks. This has become a topic of interest with the increasing
applications of data science and artificial intelligence that have created a
higher demand to the ubiquitous application of the data. The privacy protection
of the broad Data-InformationKnowledge-Wisdom (DIKW) landscape, the next
generation of information organization, has not been in the limelight. Next, we
will explore DIKW architecture through the applications of popular swarm
intelligence and differential privacy. As differential privacy proved to be an
effective data privacy approach, we will look at it from a DIKW domain
perspective. Swarm Intelligence could effectively optimize and reduce the
number of items in DIKW used in differential privacy, this way accelerating
both the effectiveness and the efficiency of differential privacy for crossing
multiple modals of conceptual DIKW. The proposed approach is proved through the
application of personalized data that is based on the open-sourse IRIS dataset.
This experiment demonstrates the efficiency of Swarm Intelligence in reducing
computing complexity.
- Abstract(参考訳): プライバシー保護は最近、学術と産業の両方の注目を集めている。
社会は複雑な法的枠組みを通じて個々のデータのプライバシーを保護する。
これは、ユビキタスなデータ応用への高い需要を生み出したデータサイエンスと人工知能の応用が増加していることへの関心の的になっている。
次世代情報組織であるDIKW(Data-InformationKnowledge-Wisdom)ランドスケープのプライバシー保護は、あまり注目されていない。
次に、人気のあるswarmインテリジェンスとディファレンシャルプライバシのアプリケーションを通じてdikwアーキテクチャを探求する。
差分プライバシーは効果的なデータプライバシーアプローチであると証明されたので、DIKWドメインの観点から見ていく。
Swarm Intelligenceは、差分プライバシーに使用されるDIKWの項目数を効果的に最適化し、削減することができる。
提案手法は、オープンサースIRISデータセットに基づくパーソナライズされたデータの適用によって証明される。
この実験は、計算の複雑さを減らすためのスワーミングインテリジェンスの効率を示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。