論文の概要: Encrypted machine learning of molecular quantum properties
- arxiv url: http://arxiv.org/abs/2212.04322v1
- Date: Mon, 5 Dec 2022 11:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:43:10.300486
- Title: Encrypted machine learning of molecular quantum properties
- Title(参考訳): 分子量子特性の暗号化機械学習
- Authors: Jan Weinreich, Guido Falk von Rudorff, O. Anatole von Lilienfeld
- Abstract要約: 予測過程の暗号化は、二重盲検モデル評価によってこの問題を解決することができる。
セキュアで計算可能な暗号化機械学習モデルを実装している。
カーネルリッジ回帰モデルを用いた暗号化予測は、暗号化なしでは100万倍のコストがかかることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large machine learning models with improved predictions have become widely
available in the chemical sciences. Unfortunately, these models do not protect
the privacy necessary within commercial settings, prohibiting the use of
potentially extremely valuable data by others. Encrypting the prediction
process can solve this problem by double-blind model evaluation and prohibits
the extraction of training or query data. However, contemporary ML models based
on fully homomorphic encryption or federated learning are either too expensive
for practical use or have to trade higher speed for weaker security. We have
implemented secure and computationally feasible encrypted machine learning
models using oblivious transfer enabling and secure predictions of molecular
quantum properties across chemical compound space. However, we find that
encrypted predictions using kernel ridge regression models are a million times
more expensive than without encryption. This demonstrates a dire need for a
compact machine learning model architecture, including molecular representation
and kernel matrix size, that minimizes model evaluation costs.
- Abstract(参考訳): 予測が改善された大規模な機械学習モデルは、化学科学で広く利用可能になっている。
残念なことに、これらのモデルは商用設定に必要なプライバシーを保護せず、潜在的に非常に価値のあるデータの使用を禁止している。
予測プロセスの暗号化は、二重盲検モデルの評価によってこの問題を解決し、トレーニングやクエリデータの抽出を禁止する。
しかし、完全同型暗号化やフェデレート学習に基づく現代のMLモデルは、実用には高すぎるか、より弱いセキュリティのためにより高速な取引が必要になる。
我々は,化学化合物空間にまたがる分子量子特性の予測を可能にし,セキュアで計算可能な機械学習モデルを実装した。
しかし、カーネルリッジ回帰モデルを用いた暗号化予測は、暗号化なしでは100万倍も高価であることがわかった。
これは、モデル評価コストを最小化する分子表現とカーネルマトリックスサイズを含む、コンパクトな機械学習モデルアーキテクチャの必要性を示す。
関連論文リスト
- Privacy Side Channels in Machine Learning Systems [82.85919161427604]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
機械学習ライフサイクル全体にわたるサイドチャネルの4つのカテゴリを提案する。
我々の結果は、全体的なエンドツーエンドのプライバシー分析の必要性を示しています。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - QuMoS: A Framework for Preserving Security of Quantum Machine Learning
Model [10.543277412560233]
セキュリティは常に、機械学習(ML)アプリケーションにおいて重要な問題でした。
モデルステアリング攻撃は最も基本的な問題だが重要な問題の一つである。
モデルセキュリティを維持するための新しいフレームワーク、QuMoSを提案する。
論文 参考訳(メタデータ) (2023-04-23T01:17:43Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - Partially Oblivious Neural Network Inference [4.843820624525483]
CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-27T05:39:36Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Privacy-preserving machine learning with tensor networks [50.591267188664666]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - Stochastic-Shield: A Probabilistic Approach Towards Training-Free
Adversarial Defense in Quantized CNNs [0.0]
量子ニューラルネットワーク(NN)は、小さなハードウェアプラットフォームにディープラーニングモデルを効率的にデプロイするための一般的な標準である。
再トレーニングやアドホックな微調整の負担を伴わずに,各モジュールを高精度に実現することにより,効率とロバスト性が両立できることを示す。
論文 参考訳(メタデータ) (2021-05-13T18:59:15Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - Privacy-Preserving Gaussian Process Regression -- A Modular Approach to
the Application of Homomorphic Encryption [4.1499725848998965]
ホモモルフィック暗号化(FHE)は、データを暗号化しながら計算することができる。
ガウス過程回帰のような一般的な機械学習アルゴリズムは、FHEにはあまり適していない。
保護を必要とするワークフローのセンシティブなステップのみにFHEを適用するモジュラーアプローチは、あるパーティがデータに対して予測できることを示している。
論文 参考訳(メタデータ) (2020-01-28T11:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。