論文の概要: PrivacyBench: Privacy Isn't Free in Hybrid Privacy-Preserving Vision Systems
- arxiv url: http://arxiv.org/abs/2602.18900v1
- Date: Sat, 21 Feb 2026 16:45:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.384009
- Title: PrivacyBench: Privacy Isn't Free in Hybrid Privacy-Preserving Vision Systems
- Title(参考訳): PrivacyBench:ハイブリッドなプライバシー保護ビジョンシステムではプライバシは無料ではない
- Authors: Nnaemeka Obiefuna, Samuel Oyeneye, Similoluwa Odunaiya, Iremide Oyelaja, Steven Kolawole,
- Abstract要約: 私たちはPrivacyBenchというベンチマークフレームワークを紹介しました。
FL + DPの組み合わせは、計算コストとエネルギー消費が大幅に増加する一方、精度は98%から13%に低下する。
我々のフレームワークは、YAMLの自動設定、リソース監視、再現可能なプロトコルを通じて、プライバシ・ユーティリティ・コストのトレードオフを評価するための最初の体系的なプラットフォームを提供する。
- 参考スコア(独自算出の注目度): 1.31032910112552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy preserving machine learning deployments in sensitive deep learning applications; from medical imaging to autonomous systems; increasingly require combining multiple techniques. Yet, practitioners lack systematic guidance to assess the synergistic and non-additive interactions of these hybrid configurations, relying instead on isolated technique analysis that misses critical system level interactions. We introduce PrivacyBench, a benchmarking framework that reveals striking failures in privacy technique combinations with severe deployment implications. Through systematic evaluation across ResNet18 and ViT models on medical datasets, we uncover that FL + DP combinations exhibit severe convergence failure, with accuracy dropping from 98% to 13% while compute costs and energy consumption substantially increase. In contrast, FL + SMPC maintains near-baseline performance with modest overhead. Our framework provides the first systematic platform for evaluating privacy-utility-cost trade-offs through automated YAML configuration, resource monitoring, and reproducible experimental protocols. PrivacyBench enables practitioners to identify problematic technique interactions before deployment, moving privacy-preserving computer vision from ad-hoc evaluation toward principled systems design. These findings demonstrate that privacy techniques cannot be composed arbitrarily and provide critical guidance for robust deployment in resource-constrained environments.
- Abstract(参考訳): 機密性の高いディープラーニングアプリケーション – 医療画像から自律システムに至るまで – におけるマシンラーニングデプロイメントのプライバシ保護 – には,複数のテクニックの組み合わせがますます求められている。
しかし、実践者はこれらのハイブリッド構成の相乗的および非付加的な相互作用を評価するための体系的なガイダンスを欠いている。
私たちはPrivacyBenchというベンチマークフレームワークを紹介しました。
医療データセット上でのResNet18モデルとViTモデル間の系統的評価により、FL+DPの組み合わせは、計算コストとエネルギー消費が大幅に増加する一方で、精度が98%から13%に低下していることが明らかとなった。
対照的に、FL + SMPCは最小限のオーバーヘッドでほぼベースラインのパフォーマンスを維持している。
我々のフレームワークは、YAML設定の自動設定、リソース監視、再現可能な実験プロトコルを通じて、プライバシ・ユーティリティ・コストのトレードオフを評価するための最初の体系的なプラットフォームを提供する。
プライバシベンチは、デプロイ前に問題のあるテクニックインタラクションを識別し、プライバシを保存するコンピュータビジョンを、アドホックな評価から原則化されたシステム設計へと移行することを可能にする。
これらの結果から,プライバシ手法を任意に構成することはできず,資源制約環境におけるロバストな展開のための重要なガイダンスを提供することができた。
関連論文リスト
- PAC to the Future: Zero-Knowledge Proofs of PAC Private Systems [11.574355374384462]
本稿では,信頼性の高い計算環境において,確率的近似(PAC)プライバシとゼロ知識証明(ZKP)を組み合わせることによって,検証可能なプライバシ保証を実現する新しいフレームワークを提案する。
我々は、プロプライエタリなシステムの機密性を維持しつつ、PACプライバシメカニズムの正しい実装を証明した証明を生成するために、非インタラクティブなZKPスキームを活用している。
論文 参考訳(メタデータ) (2026-02-12T13:49:22Z) - Reliable LLM-Based Edge-Cloud-Expert Cascades for Telecom Knowledge Systems [54.916243942641444]
大規模言語モデル(LLM)は、通信などの分野において、自動化の鍵となる存在として浮上している。
本研究では,問合せパイプラインによる意思決定を支援する,エッジクラウドに精通したLLMベースの知識システムについて検討する。
論文 参考訳(メタデータ) (2025-12-23T03:10:09Z) - FedRP: A Communication-Efficient Approach for Differentially Private Federated Learning Using Random Projection [1.4552744016611232]
フェデレートラーニング(FL)は、分散デバイス間の協調モデルトレーニングのための革新的なパラダイムを提供する。
その利点にもかかわらず、FLは潜在的な攻撃に対するユーザーのプライバシー保護と通信コストの管理に関する課題に直面している。
本稿では,FedRPと呼ばれる新しいフェデレーション学習アルゴリズムを提案する。このアルゴリズムは,ランダムプロジェクション手法とALMM(Alternating Direction Method of Multipliers)最適化フレームワークを統合する。
論文 参考訳(メタデータ) (2025-09-12T08:08:48Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Enabling Privacy-Aware AI-Based Ergonomic Analysis [2.4622431772551256]
筋骨格障害(英: Musculoskeletal disorders, MSDs)は、製造業における傷害と生産性の低下の主要な原因である。
機械学習技術を利用したプライバシを考慮した人間工学評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-12T07:52:48Z) - Communication-Efficient and Privacy-Adaptable Mechanism for Federated Learning [54.20871516148981]
通信効率・プライバシー適応メカニズム(CEPAM)について紹介する。
CEPAMは通信効率とプライバシー保護を同時に達成する。
我々は、CEPAMのプライバシー保証を理論的に分析し、CEPAMのユーザプライバシと正確性の間のトレードオフを調査する。
論文 参考訳(メタデータ) (2025-01-21T11:16:05Z) - How Breakable Is Privacy: Probing and Resisting Model Inversion Attacks in Collaborative Inference [13.453033795109155]
協調推論は、中間機能をクラウドモデルに伝達することでエッジデバイスの計算効率を向上させる。
モデル逆攻撃(MIA)の難しさを評価するための確立された基準はない。
本稿では、CIにおけるMIAの難易度を評価するための最初の理論的基準を提案し、相互情報、エントロピー、有効情報量などを重要な要因として同定する。
論文 参考訳(メタデータ) (2025-01-01T13:00:01Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。