論文の概要: Props for Machine-Learning Security
- arxiv url: http://arxiv.org/abs/2410.20522v1
- Date: Sun, 27 Oct 2024 17:05:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:15:12.518094
- Title: Props for Machine-Learning Security
- Title(参考訳): マシンラーニングセキュリティのためのプロップ
- Authors: Ari Juels, Farinaz Koushanfar,
- Abstract要約: Propsは、マシンラーニング(ML)のためのディープウェブデータへのアクセスを認証し、プライバシ保護するための保護されたパイプラインである
Propsはまた、プライバシ保護の信頼性と推論形式を可能にし、MLアプリケーションで機密データを安全に使用できるようにする。
- 参考スコア(独自算出の注目度): 19.71019731367118
- License:
- Abstract: We propose protected pipelines or props for short, a new approach for authenticated, privacy-preserving access to deep-web data for machine learning (ML). By permitting secure use of vast sources of deep-web data, props address the systemic bottleneck of limited high-quality training data in ML development. Props also enable privacy-preserving and trustworthy forms of inference, allowing for safe use of sensitive data in ML applications. Props are practically realizable today by leveraging privacy-preserving oracle systems initially developed for blockchain applications.
- Abstract(参考訳): 我々は、機械学習(ML)のためのディープウェブデータへのアクセスを認証し、プライバシ保護する新しいアプローチとして、保護されたパイプラインやプロップを提案する。
プロップは、大量のディープウェブデータソースを安全に利用することで、ML開発における限られた高品質のトレーニングデータの体系的なボトルネックに対処する。
Propsはまた、プライバシ保護と信頼できる形式の推論を可能にし、MLアプリケーションで機密データを安全に使用することができる。
プロップは、ブロックチェーンアプリケーション用に最初に開発されたプライバシ保護のオラクルシステムを活用することで、今日では事実上実現可能である。
関連論文リスト
- FL-DECO-BC: A Privacy-Preserving, Provably Secure, and Provenance-Preserving Federated Learning Framework with Decentralized Oracles on Blockchain for VANETs [0.0]
Vehicular Ad-Hoc Networks (VANETs) は、交通の安全と効率を改善する大きな可能性を秘めている。
VANETにおける機械学習の従来の集中型アプローチは、データのプライバシとセキュリティに関する懸念を提起している。
本稿では,VANET に特化して設計された新しいプライバシ保護・安全・実証性保護型フェデレーション学習フレームワークとして FL-DECO-BC を提案する。
論文 参考訳(メタデータ) (2024-07-30T19:09:10Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - A Survey of Data Security: Practices from Cybersecurity and Challenges of Machine Learning [6.086388464254366]
機械学習(ML)は、ますます重要なシステムにデプロイされている。
MLのデータ依存により、ML対応システムのトレーニングとテストに使用されるセキュアなデータが最重要となる。
データサイエンスとサイバーセキュリティのドメインは、独自のスキルと用語のセットに準拠している。
論文 参考訳(メタデータ) (2023-10-06T18:15:35Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Privacy-Preserving Machine Learning for Collaborative Data Sharing via
Auto-encoder Latent Space Embeddings [57.45332961252628]
データ共有プロセスにおけるプライバシ保護機械学習は、極めて重要なタスクである。
本稿では、オートエンコーダによる表現学習を用いて、プライバシーを保護した組込みデータを生成する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-10T17:36:58Z) - SoK: Privacy Preserving Machine Learning using Functional Encryption:
Opportunities and Challenges [1.2183405753834562]
プライバシー保護機械学習(PPML)アプリケーションのための内積-FEおよび準積-FEベースの機械学習モデルに焦点を当てる。
私たちの知る限りでは、FEベースのPPMLアプローチを体系化する最初の作業です。
論文 参考訳(メタデータ) (2022-04-11T14:15:36Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - secureTF: A Secure TensorFlow Framework [1.1006321791711173]
secureTFは、クラウドインフラストラクチャのオンフローに基づいた分散機械学習フレームワークである。
SecureTFは、未修正のアプリケーションをサポートし、入力データ、MLモデル、アプリケーションコードのエンドツーエンドのセキュリティを提供する。
本稿では,本番環境におけるシステム設計選択とシステム配置に関する経験について報告する。
論文 参考訳(メタデータ) (2021-01-20T16:36:53Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。