論文の概要: Differential Privacy in Machine Learning: From Symbolic AI to LLMs
- arxiv url: http://arxiv.org/abs/2506.11687v1
- Date: Fri, 13 Jun 2025 11:30:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.771402
- Title: Differential Privacy in Machine Learning: From Symbolic AI to LLMs
- Title(参考訳): 機械学習における微分プライバシー - シンボリックAIからLLMへ
- Authors: Francisco Aguilera-Martínez, Fernando Berzal,
- Abstract要約: 差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models should not reveal particular information that is not otherwise accessible. Differential privacy provides a formal framework to mitigate privacy risks by ensuring that the inclusion or exclusion of any single data point does not significantly alter the output of an algorithm, thus limiting the exposure of private information. This survey paper explores the foundational definitions of differential privacy, reviews its original formulations and tracing its evolution through key research contributions. It then provides an in-depth examination of how DP has been integrated into machine learning models, analyzing existing proposals and methods to preserve privacy when training ML models. Finally, it describes how DP-based ML techniques can be evaluated in practice. %Finally, it discusses the broader implications of DP, highlighting its potential for public benefit, its real-world applications, and the challenges it faces, including vulnerabilities to adversarial attacks. By offering a comprehensive overview of differential privacy in machine learning, this work aims to contribute to the ongoing development of secure and responsible AI systems.
- Abstract(参考訳): 機械学習モデルは、他の方法ではアクセスできない特定の情報を明らかにするべきではない。
差分プライバシーは、任意の単一データポイントの包含または除外がアルゴリズムの出力を著しく変更しないことを保証することで、プライバシーリスクを軽減するための正式なフレームワークを提供する。
本稿では、差分プライバシーの基本的定義について検討し、その原定式を見直し、重要な研究貢献を通じてその進化をたどる。
そして、DPが機械学習モデルにどのように統合されたのかを詳細に調査し、MLモデルをトレーニングする際のプライバシを保護するための既存の提案と方法を分析する。
最後に、DPベースのML技術が実際にどのように評価されるかを説明する。
その内容は、公共の利益の可能性、現実世界のアプリケーション、そして敵の攻撃に対する脆弱性を含む、彼らが直面する課題を浮き彫りにしている。
機械学習における差分プライバシーの包括的概要を提供することで、この研究は、セキュアで責任のあるAIシステムの継続的な開発に貢献することを目指している。
関連論文リスト
- Privacy Preserving Machine Learning Model Personalization through Federated Personalized Learning [0.0]
データプライバシを維持しながら、分散データサイロ上で機械学習(ML)モデルをトレーニングするための主要なパラダイムであるフェデレートラーニング(FL)への関心が揺れている。
本研究では,プライバシ保護機械学習によって達成されたプライバシを保護しながら,MLモデルをパーソナライズするための最先端アプローチの総合的なパフォーマンス解析を行う。
我々の分析によると、適応的パーソナライズ・クロスサイロ・フェデレーション・ラーニング・アダプティブプライバシ(APPLE+DP)は効率的な実行を提供するのに対し、アダプティブ・パーソナライズ・クロスサイロ・フェデレーション・ラーニング・アダプティブ・エン暗号化(APPLE+HE)アルゴリズムは、プライバシ保存機械学習タスクに強く利用されている。
論文 参考訳(メタデータ) (2025-05-03T11:31:38Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.9208007322096533]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Survey on Differential Privacy with Machine Learning and Future
Outlook [0.0]
差分プライバシーは、あらゆる攻撃や脆弱性から機械学習モデルを保護するために使用される。
本稿では,2つのカテゴリに分類される差分プライベート機械学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2022-11-19T14:20:53Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。