論文の概要: Prismo: A Decision Support System for Privacy-Preserving ML Framework Selection
- arxiv url: http://arxiv.org/abs/2510.09985v1
- Date: Sat, 11 Oct 2025 03:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.722598
- Title: Prismo: A Decision Support System for Privacy-Preserving ML Framework Selection
- Title(参考訳): Prismo:プライバシ保護MLフレームワーク選択のための意思決定支援システム
- Authors: Nges Brian Njungle, Eric Jahns, Luigi Mastromauro, Edwin P. Kayang, Milan Stojkov, Michel A. Kinsy,
- Abstract要約: プライバシ保護機械学習(PPML)フレームワークは、機械学習アプリケーションにおける機密情報を保護するために開発された。
PPMLアプリケーションシナリオの最適パラメータとフレームワークの選択を支援するために設計されたオープンソースレコメンデーションシステムであるPrismoを提案する。
複数のユースケースを通じてPrismoの有効性を評価し、異なるデプロイメントシナリオで最適なソリューションを提供する能力を実証した。
- 参考スコア(独自算出の注目度): 0.07696728525672147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning has become a crucial part of our lives, with applications spanning nearly every aspect of our daily activities. However, using personal information in machine learning applications has sparked significant security and privacy concerns about user data. To address these challenges, different privacy-preserving machine learning (PPML) frameworks have been developed to protect sensitive information in machine learning applications. These frameworks generally attempt to balance design trade-offs such as computational efficiency, communication overhead, security guarantees, and scalability. Despite the advancements, selecting the optimal framework and parameters for specific deployment scenarios remains a complex and critical challenge for privacy and security application developers. We present Prismo, an open-source recommendation system designed to aid in selecting optimal parameters and frameworks for different PPML application scenarios. Prismo enables users to explore a comprehensive space of PPML frameworks through various properties based on user-defined objectives. It supports automated filtering of suitable candidate frameworks by considering parameters such as the number of parties in multi-party computation or federated learning and computation cost constraints in homomorphic encryption. Prismo models every use case into a Linear Integer Programming optimization problem, ensuring tailored solutions are recommended for each scenario. We evaluate Prismo's effectiveness through multiple use cases, demonstrating its ability to deliver best-fit solutions in different deployment scenarios.
- Abstract(参考訳): 機械学習は私たちの生活の重要な部分となり、アプリケーションは日々の活動のほぼすべての側面にまたがっている。
しかし、機械学習アプリケーションで個人情報を使用すると、ユーザデータに対するセキュリティとプライバシの重大な懸念が引き起こされている。
これらの課題に対処するため、さまざまなプライバシ保護機械学習(PPML)フレームワークが開発され、機械学習アプリケーションにおける機密情報を保護している。
これらのフレームワークは一般に、計算効率、通信オーバーヘッド、セキュリティ保証、スケーラビリティといった設計上のトレードオフのバランスをとろうとする。
進歩にもかかわらず、特定のデプロイメントシナリオに対して最適なフレームワークとパラメータを選択することは、プライバシとセキュリティアプリケーション開発者にとっては複雑で重要な課題である。
PPMLアプリケーションシナリオの最適パラメータとフレームワークの選択を支援するために設計されたオープンソースレコメンデーションシステムであるPrismoを提案する。
Prismoは、ユーザが定義した目的に基づいて、さまざまなプロパティを通じてPPMLフレームワークの包括的なスペースを探索することを可能にする。
マルチパーティ計算におけるパーティ数や、同型暗号化におけるフェデレーション学習や計算コスト制約といったパラメータを考慮し、適切な候補フレームワークの自動フィルタリングをサポートする。
Prismoはすべてのユースケースを線形整数プログラミング最適化問題にモデル化し、各シナリオに最適化されたソリューションが推奨されるようにします。
複数のユースケースを通じてPrismoの有効性を評価し、異なるデプロイメントシナリオで最適なソリューションを提供する能力を実証した。
関連論文リスト
- Optimizing Privacy-Preserving Primitives to Support LLM-Scale Applications [13.665746704069837]
本稿では,プライバシー保護学習システムにおける,このオーバーヘッドと実践性のギャップを埋めるための取り組みの概要を紹介する。
プライバシー保護設定におけるLLMスケールアプリケーションの実現に向けた進展を示す。
論文 参考訳(メタデータ) (2025-09-29T17:16:51Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Optimal Event Monitoring through Internet Mashup over Multivariate Time
Series [77.34726150561087]
このフレームワークは、モデル定義、クエリ、パラメータ学習、モデル評価、データ監視、決定レコメンデーション、Webポータルのサービスをサポートする。
さらに、MTSAデータモデルとクエリ言語を拡張して、学習、監視、レコメンデーションのサービスにおいて、この種の問題をサポートする。
論文 参考訳(メタデータ) (2022-10-18T16:56:17Z) - Private Multi-Task Learning: Formulation and Applications to Federated
Learning [44.60519521554582]
マルチタスク学習は、ヘルスケア、ファイナンス、IoTコンピューティングなどの分野において、プライバシに敏感なアプリケーションに関係している。
我々は,MTLにおけるクライアントレベルのプライバシの概念を,共同微分プライバシ(JDP),メカニズム設計と分散最適化のための微分プライバシの緩和を通じて形式化する。
そこで我々は,パーソナライズド・フェデレーション・ラーニングの応用を目的とした,平均正規化MLLのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-30T03:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。