論文の概要: More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2008.01916v1
- Date: Wed, 5 Aug 2020 03:07:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 17:45:15.326799
- Title: More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence
- Title(参考訳): プライバシー以上のもの:人工知能の重要分野における差別的プライバシーの適用
- Authors: Tianqing Zhu and Dayong Ye and Wei Wang and Wanlei Zhou and Philip S.
Yu
- Abstract要約: 差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
- 参考スコア(独自算出の注目度): 62.3133247463974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) has attracted a great deal of attention in
recent years. However, alongside all its advancements, problems have also
emerged, such as privacy violations, security issues and model fairness.
Differential privacy, as a promising mathematical model, has several attractive
properties that can help solve these problems, making it quite a valuable tool.
For this reason, differential privacy has been broadly applied in AI but to
date, no study has documented which differential privacy mechanisms can or have
been leveraged to overcome its issues or the properties that make this
possible. In this paper, we show that differential privacy can do more than
just privacy preservation. It can also be used to improve security, stabilize
learning, build fair models, and impose composition in selected areas of AI.
With a focus on regular machine learning, distributed machine learning, deep
learning, and multi-agent systems, the purpose of this article is to deliver a
new view on many possibilities for improving AI performance with differential
privacy techniques.
- Abstract(参考訳): 近年,人工知能(AI)が注目されている。
しかし、その進歩と並行して、プライバシー侵害、セキュリティ問題、モデルフェアネスといった問題も発生している。
微分プライバシーは、有望な数学的モデルとして、これらの問題を解決するのに役立ついくつかの魅力的な性質を持っている。
この理由から、微分プライバシーはAIに広く適用されているが、これまでのところ、差分プライバシーメカニズムがその問題やそれを可能にするプロパティを克服するために利用可能か、あるいは利用されたかが文書化されていない。
本稿では、差分プライバシーが単にプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
通常の機械学習、分散機械学習、ディープラーニング、マルチエージェントシステムに焦点を当てた本記事の目的は、差分プライバシー技術でAIのパフォーマンスを改善する多くの可能性について、新たな視点を提供することである。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks [42.3024294376025]
機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
論文 参考訳(メタデータ) (2024-06-10T11:31:04Z) - Privacy-Preserving Distributed Optimization and Learning [2.1271873498506038]
プライバシー保護に使用できる暗号、差分プライバシー、その他の技術について議論する。
プライバシと最適化の精度を同時に確保できる差分プライバシアルゴリズムをいくつか導入する。
これらのアルゴリズムの現実的有効性を確認するために、いくつかの機械学習問題に例を挙げる。
論文 参考訳(メタデータ) (2024-02-29T22:18:05Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Tempered Sigmoid Activations for Deep Learning with Differential Privacy [33.574715000662316]
活性化関数の選択は、プライバシー保護の深層学習の感度を束縛することの中心であることを示す。
我々は,MNIST,FashionMNIST,CIFAR10に対して,学習手順の基礎を変更することなく,新たな最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-07-28T13:19:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。