論文の概要: Encrypted machine learning of molecular quantum properties
- arxiv url: http://arxiv.org/abs/2212.04322v1
- Date: Mon, 5 Dec 2022 11:04:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:43:10.300486
- Title: Encrypted machine learning of molecular quantum properties
- Title(参考訳): 分子量子特性の暗号化機械学習
- Authors: Jan Weinreich, Guido Falk von Rudorff, O. Anatole von Lilienfeld
- Abstract要約: 予測過程の暗号化は、二重盲検モデル評価によってこの問題を解決することができる。
セキュアで計算可能な暗号化機械学習モデルを実装している。
カーネルリッジ回帰モデルを用いた暗号化予測は、暗号化なしでは100万倍のコストがかかることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large machine learning models with improved predictions have become widely
available in the chemical sciences. Unfortunately, these models do not protect
the privacy necessary within commercial settings, prohibiting the use of
potentially extremely valuable data by others. Encrypting the prediction
process can solve this problem by double-blind model evaluation and prohibits
the extraction of training or query data. However, contemporary ML models based
on fully homomorphic encryption or federated learning are either too expensive
for practical use or have to trade higher speed for weaker security. We have
implemented secure and computationally feasible encrypted machine learning
models using oblivious transfer enabling and secure predictions of molecular
quantum properties across chemical compound space. However, we find that
encrypted predictions using kernel ridge regression models are a million times
more expensive than without encryption. This demonstrates a dire need for a
compact machine learning model architecture, including molecular representation
and kernel matrix size, that minimizes model evaluation costs.
- Abstract(参考訳): 予測が改善された大規模な機械学習モデルは、化学科学で広く利用可能になっている。
残念なことに、これらのモデルは商用設定に必要なプライバシーを保護せず、潜在的に非常に価値のあるデータの使用を禁止している。
予測プロセスの暗号化は、二重盲検モデルの評価によってこの問題を解決し、トレーニングやクエリデータの抽出を禁止する。
しかし、完全同型暗号化やフェデレート学習に基づく現代のMLモデルは、実用には高すぎるか、より弱いセキュリティのためにより高速な取引が必要になる。
我々は,化学化合物空間にまたがる分子量子特性の予測を可能にし,セキュアで計算可能な機械学習モデルを実装した。
しかし、カーネルリッジ回帰モデルを用いた暗号化予測は、暗号化なしでは100万倍も高価であることがわかった。
これは、モデル評価コストを最小化する分子表現とカーネルマトリックスサイズを含む、コンパクトな機械学習モデルアーキテクチャの必要性を示す。
関連論文リスト
- Training quantum machine learning models on cloud without uploading the data [0.0]
本稿では,入力データを符号化する前にパラメータ化量子回路を動作させる手法を提案する。
これにより、データセット所有者は、量子クラウドプラットフォーム上で機械学習モデルをトレーニングすることができる。
また、後に古典的な計算を用いて大量のデータを効果的に符号化することも可能である。
論文 参考訳(メタデータ) (2024-09-06T20:14:52Z) - Promises and Pitfalls of Generative Masked Language Modeling: Theoretical Framework and Practical Guidelines [74.42485647685272]
GMLM(Generative Masked Language Models)に焦点を当てる。
我々は,マルコフ連鎖の入力として使用されるマスキングにより,データ分布の条件付き確率に適合するモデルを訓練し,モデルからサンプルを抽出する。
我々は,T5モデルを並列デコーディングに適応させ,最小品質の犠牲を伴って機械翻訳における2~3倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-07-22T18:00:00Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Learning in the Dark: Privacy-Preserving Machine Learning using Function Approximation [1.8907108368038215]
Learning in the Darkは、暗号化された画像を高精度に分類できる、プライバシ保護機械学習モデルである。
暗号化データ上で直接計算を行うことで、高精度な予測を行うことができる。
論文 参考訳(メタデータ) (2023-09-15T06:45:58Z) - QuMoS: A Framework for Preserving Security of Quantum Machine Learning
Model [10.543277412560233]
セキュリティは常に、機械学習(ML)アプリケーションにおいて重要な問題でした。
モデルステアリング攻撃は最も基本的な問題だが重要な問題の一つである。
モデルセキュリティを維持するための新しいフレームワーク、QuMoSを提案する。
論文 参考訳(メタデータ) (2023-04-23T01:17:43Z) - nanoLM: an Affordable LLM Pre-training Benchmark via Accurate Loss Prediction across Scales [65.01417261415833]
我々は,最大更新パラメトリゼーション(muP)がスケーリング法則の正確な適合を可能にするという観測に基づいて,事前学習損失を予測する手法を提案する。
トレーニング前コストの約14%で、52Bまでのモデルの損失を正確に予測できる。
NanoLMのゴールは、限られた資源を持つ研究者が大きなモデルで有意義な結論に達することを可能にすることです。
論文 参考訳(メタデータ) (2023-04-14T00:45:01Z) - Implicit Geometry and Interaction Embeddings Improve Few-Shot Molecular
Property Prediction [53.06671763877109]
我々は, 複雑な分子特性を符号化した分子埋め込みを開発し, 数発の分子特性予測の性能を向上させる。
我々の手法は大量の合成データ、すなわち分子ドッキング計算の結果を利用する。
複数の分子特性予測ベンチマークでは、埋め込み空間からのトレーニングにより、マルチタスク、MAML、プロトタイプラーニング性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-02-04T01:32:40Z) - Partially Oblivious Neural Network Inference [4.843820624525483]
CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-27T05:39:36Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。