論文の概要: Informationally Compressive Anonymization: Non-Degrading Sensitive Input Protection for Privacy-Preserving Supervised Machine Learning
- arxiv url: http://arxiv.org/abs/2603.15842v1
- Date: Mon, 16 Mar 2026 19:17:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.961531
- Title: Informationally Compressive Anonymization: Non-Degrading Sensitive Input Protection for Privacy-Preserving Supervised Machine Learning
- Title(参考訳): 情報圧縮匿名化:プライバシ保護型監視機械学習のための非劣化感性入力保護
- Authors: Jeremy J Samuelson,
- Abstract要約: 本稿では,情報圧縮匿名化(ICA)とプライバシー保護機械学習フレームワークVEILアーキテクチャを紹介する。
ICAは、信頼されたソース環境内に教師付き多目的エンコーダを組み込んで、生の入力を低次元のタスク対応の潜在表現に変換する。
VEILアーキテクチャは厳格な信頼境界を強制し、スケーラブルなマルチリージョンデプロイメントをサポートし、自然にプライバシ・バイ・デザインの規制フレームワークと整合する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning systems increasingly rely on sensitive data, creating significant privacy, security, and regulatory risks that existing privacy-preserving machine learning (ppML) techniques, such as Differential Privacy (DP) and Homomorphic Encryption (HE), address only at the cost of degraded performance, increased complexity, or prohibitive computational overhead. This paper introduces Informationally Compressive Anonymization (ICA) and the VEIL architecture, a privacy-preserving ML framework that achieves strong privacy guarantees through architectural and mathematical design rather than noise injection or cryptography. ICA embeds a supervised, multi-objective encoder within a trusted Source Environment to transform raw inputs into low-dimensional, task-aligned latent representations, ensuring that only irreversibly anonymized vectors are exported to untrusted Training and Inference Environments. The paper rigorously proves that these encodings are structurally non-invertible using topological and information-theoretic arguments, showing that inversion is logically impossible, even under idealized attacker assumptions, and that, in realistic deployments, the attackers conditional entropy over the original data diverges, driving reconstruction probability to zero. Unlike prior autoencoder-based ppML approaches, ICA preserves predictive utility by aligning representation learning with downstream supervised objectives, enabling low-latency, high-performance ML without gradient clipping, noise budgets, or encryption at inference time. The VEIL architecture enforces strict trust boundaries, supports scalable multi-region deployment, and naturally aligns with privacy-by-design regulatory frameworks, establishing a new foundation for enterprise ML that is secure, performant, and safe by construction, even in the face of post-quantum threats.
- Abstract(参考訳): 現代の機械学習システムは、機密データにますます依存し、プライバシ、セキュリティ、および既存のプライバシ保護機械学習(ppML)技術である差分プライバシ(DP)やホモモルフィック暗号化(HE)といった規制リスクを生み出す。
本稿では,情報圧縮匿名化(ICA)とVEILアーキテクチャを紹介する。これは,ノイズ注入や暗号ではなく,アーキテクチャや数学的設計を通じて,強力なプライバシ保証を実現するプライバシ保護型MLフレームワークである。
ICAは、信頼できるソース環境内に教師付き多目的エンコーダを組み込んで、生の入力を低次元のタスク整列表現に変換する。
この論文は、これらのエンコーディングがトポロジカルおよび情報理論の議論を用いて構造的に非可逆的であることを厳密に証明し、インバージョンは理想化された攻撃者の仮定の下でも論理的に不可能であり、現実的な展開では、攻撃者が元のデータに対して条件付きエントロピーを分散させ、再構成確率をゼロに駆動することを示す。
従来のオートエンコーダベースのppMLアプローチとは異なり、ICAは、表現学習を下流の教師付き目的と整合させることで予測ユーティリティを保ち、勾配クリップやノイズ予算、推論時の暗号化を不要に、低レイテンシで高性能なMLを可能にする。
VEILアーキテクチャは厳格な信頼境界を強制し、スケーラブルなマルチリージョンデプロイメントをサポートし、プライバシ・バイ・デザインの規制フレームワークに自然に準拠する。
関連論文リスト
- CLAIRE: Compressed Latent Autoencoder for Industrial Representation and Evaluation -- A Deep Learning Framework for Smart Manufacturing [51.56484100374058]
CLAIREは、教師なしの深層表現学習と、スマート製造システムにおけるインテリジェントな品質管理のための教師付き分類を統合したハイブリッドエンドツーエンド学習フレームワークである。
最適化されたディープオートエンコーダを使用して、生の入力をコンパクトな潜伏空間に変換し、不適切な特徴やノイズを抑えながら本質的なデータ構造を効果的にキャプチャする。
提案したフレームワークは、堅牢な障害検出のために、説明可能なAIと機能認識の正規化を統合する可能性を強調している。
論文 参考訳(メタデータ) (2026-03-06T15:11:58Z) - Design and Optimization of Cloud Native Homomorphic Encryption Workflows for Privacy-Preserving ML Inference [0.0]
ホモモルフィック暗号化(HE)は、暗号化されたデータに対する暗号計算を可能にする魅力的な技術として登場した。
大規模クラウドネイティブパイプラインにおけるHEの統合は、高い計算オーバーヘッド、オーケストレーションの複雑さ、モデル互換性の問題によって制限されている。
本稿では、プライバシML推論をサポートするクラウドネイティブな同型暗号化の設計と最適化のための体系的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-28T15:13:32Z) - Advancing Practical Homomorphic Encryption for Federated Learning: Theoretical Guarantees and Efficiency Optimizations [1.8245990984484237]
Federated Learning(FL)は、クライアントデバイスにローカルに保存された生データを保持することによって、データのプライバシを維持しながら、協調的なモデルトレーニングを可能にする。
近年の研究では、モデル勾配の共有がモデル反転攻撃の脆弱性を生み出すことが示されている。
本稿では,モデル反転攻撃に対する防御として選択暗号の基本原理を理論的に解析する枠組みを提案する。
論文 参考訳(メタデータ) (2025-09-24T18:43:52Z) - Revisiting the Privacy Risks of Split Inference: A GAN-Based Data Reconstruction Attack via Progressive Feature Optimization [49.32786615205064]
Split Inference (SI)は、エッジデバイスとクラウドの間の計算を分割することで、レイテンシを低減し、ユーザのプライバシを保護する。
データ再構成攻撃(DRA)の最近の進歩は、SIで交換された中間的特徴を利用して機密入力データを復元できることを明らかにしている。
既存のDRAは一般的に浅いモデルにのみ有効であり、セマンティックな事前を十分に活用できない。
本稿では,プログレッシブ・フィーチャー・オプティマイゼーション(PFO)を用いた新しいGANベースのDRAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T10:00:39Z) - RL-Finetuned LLMs for Privacy-Preserving Synthetic Rewriting [17.294176570269]
本稿では,複合報酬関数を用いた大規模言語モデル(LLM)を微調整する強化学習フレームワークを提案する。
プライバシ報酬は、セマンティックキューと、潜伏表現上の最小スパンニングツリー(MST)から派生した構造パターンを組み合わせる。
実験の結果,提案手法はセマンティック品質を劣化させることなく,著者の難読化とプライバシーの指標を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2025-08-25T04:38:19Z) - Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Secure Distributed Learning for CAVs: Defending Against Gradient Leakage with Leveled Homomorphic Encryption [0.0]
ホモモルフィック暗号化(HE)は、差分プライバシー(DP)とセキュアマルチパーティ計算(SMPC)に代わる有望な代替手段を提供する
資源制約のある環境において,フェデレートラーニング(FL)に最も適したHE方式の評価を行った。
我々は、モデル精度を維持しながら、Gradients (DLG)攻撃からのDeep Leakageを効果的に軽減するHEベースのFLパイプラインを開発した。
論文 参考訳(メタデータ) (2025-06-09T16:12:18Z) - Encrypted Large Model Inference: The Equivariant Encryption Paradigm [18.547945807599543]
Equivariant Encryption(EE)は,暗号化されたデータに対して,性能上のオーバーヘッドがゼロに近いセキュアな"盲目"推論を可能にするように設計された,新しいパラダイムである。
計算グラフ全体を暗号化する完全同型アプローチとは異なり、EEはニューラルネットワーク層内の重要な内部表現を選択的に難読化する。
EEは高い忠実性とスループットを維持しており、ロバストなデータの機密性と、現代的な大規模モデル推論の厳密な効率要件の間のギャップを効果的に埋めています。
論文 参考訳(メタデータ) (2025-02-03T03:05:20Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。