論文の概要: JAX-Privacy: A library for differentially private machine learning
- arxiv url: http://arxiv.org/abs/2602.17861v1
- Date: Thu, 19 Feb 2026 21:55:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.161543
- Title: JAX-Privacy: A library for differentially private machine learning
- Title(参考訳): JAX-Privacy: 差分プライベート機械学習のためのライブラリ
- Authors: Ryan McKenna, Galen Andrew, Borja Balle, Vadym Doroshenko, Arun Ganesh, Weiwei Kong, Alex Kurakin, Brendan McMahan, Mikhail Pravilov,
- Abstract要約: JAX-Privacyは、独立にプライベートな機械学習のための堅牢でパフォーマンスの高いメカニズムのデプロイを簡単にするために設計されている。
このライブラリは、メカニズム設計のすべての面において重要なコンポーネントに対して、検証済みのモジュール型のプリミティブを提供します。
- 参考スコア(独自算出の注目度): 19.609402755480264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: JAX-Privacy is a library designed to simplify the deployment of robust and performant mechanisms for differentially private machine learning. Guided by design principles of usability, flexibility, and efficiency, JAX-Privacy serves both researchers requiring deep customization and practitioners who want a more out-of-the-box experience. The library provides verified, modular primitives for critical components for all aspects of the mechanism design including batch selection, gradient clipping, noise addition, accounting, and auditing, and brings together a large body of recent research on differentially private ML.
- Abstract(参考訳): JAX-Privacyは、微分プライベート機械学習のための堅牢でパフォーマンスの高いメカニズムのデプロイを簡単にするために設計されたライブラリである。
JAX-Privacyは、ユーザビリティ、柔軟性、効率に関する設計原則によって導かれ、深いカスタマイズを必要とする研究者と、よりアウトオブボックスな体験を望む実践者の両方に役立ちます。
このライブラリは、バッチ選択、勾配クリッピング、ノイズ追加、会計、監査など、メカニズム設計のすべての面において重要なコンポーネントに対して、検証済みのモジュラープリミティブを提供する。
関連論文リスト
- Unified Personalized Understanding, Generating and Editing [54.5563878110386]
統一LMMのためのエンドツーエンドパーソナライズフレームワークである textbf OmniPersona を提案する。
パーソナライズされた理解、生成、画像編集を単一のアーキテクチャに統合する。
実験によると、OmniPersonaは多様なパーソナライゼーションタスクに対して、競争力と堅牢なパフォーマンスを提供する。
論文 参考訳(メタデータ) (2026-01-11T15:46:34Z) - PrivacyGuard: A Modular Framework for Privacy Auditing in Machine Learning [4.12529284473389]
PrivacyGuardは、経験的差分プライバシー(DP)分析のためのツールである。
機械学習(ML)モデルのプライバシリスクを評価するように設計されている。
論文 参考訳(メタデータ) (2025-10-27T15:33:01Z) - Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Declarative Privacy-Preserving Inference Queries [21.890318255305026]
プライバシ保存型推論クエリを自動化するためのエンドツーエンドワークフローを提案する。
提案した宣言型プライバシ保護ワークフローでは,ユーザが“保護方法”ではなく,“保護すべきプライベート情報”を指定することが可能になった。
論文 参考訳(メタデータ) (2024-01-22T22:50:59Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z) - Privacy-Aware Compression for Federated Learning Through Numerical
Mechanism Design [32.45650219508591]
本稿では,より効率的なプライバシ解析を可能にする数値設計法を提案する。
Interpolated MVUメカニズムはよりスケーラブルで、より優れたプライバシユーティリティトレードオフを持ち、さまざまなデータセット上で通信効率のよいプライベートFLに対してSOTA結果を提供する。
論文 参考訳(メタデータ) (2022-11-08T01:36:15Z) - Opacus: User-Friendly Differential Privacy Library in PyTorch [54.8720687562153]
私たちは、差分プライバシーでディープラーニングモデルをトレーニングするための、オープンソースのPyTorchライブラリであるOpacusを紹介します。
シンプルでユーザフレンドリなAPIを提供しており、コードに最大2行を追加することで、マシンラーニングの実践者がトレーニングパイプラインをプライベートにすることができる。
論文 参考訳(メタデータ) (2021-09-25T07:10:54Z) - Statistical Privacy Guarantees of Machine Learning Preprocessing
Techniques [1.198727138090351]
機械学習パイプラインのプライバシレベルを測定するために,統計的手法に基づくプライバシ違反検出フレームワークを適用した。
新たに作成されたフレームワークを適用して、不均衡なデータセットを扱う際に使用される再サンプリング技術によって、結果のモデルがよりプライバシーを漏洩することを示す。
論文 参考訳(メタデータ) (2021-09-06T14:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。