論文の概要: A brief history on Homomorphic learning: A privacy-focused approach to
machine learning
- arxiv url: http://arxiv.org/abs/2009.04587v2
- Date: Fri, 11 Sep 2020 02:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 12:17:07.128289
- Title: A brief history on Homomorphic learning: A privacy-focused approach to
machine learning
- Title(参考訳): 準同型学習に関する短い歴史: プライバシを重視した機械学習アプローチ
- Authors: Aadesh Neupane
- Abstract要約: 同型暗号化により、暗号化されたデータ上で任意の操作を実行できる。
これにより、基盤となる生データにアクセスすることなく、洗練された機械学習アルゴリズムを実行できます。
最終的に"はい"という答えを見つけるのに30年以上を要した。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Cryptography and data science research grew exponential with the internet
boom. Legacy encryption techniques force users to make a trade-off between
usability, convenience, and security. Encryption makes valuable data
inaccessible, as it needs to be decrypted each time to perform any operation.
Billions of dollars could be saved, and millions of people could benefit from
cryptography methods that don't compromise between usability, convenience, and
security. Homomorphic encryption is one such paradigm that allows running
arbitrary operations on encrypted data. It enables us to run any sophisticated
machine learning algorithm without access to the underlying raw data. Thus,
homomorphic learning provides the ability to gain insights from sensitive data
that has been neglected due to various governmental and organization privacy
rules.
In this paper, we trace back the ideas of homomorphic learning formally posed
by Ronald L. Rivest and Len Alderman as "Can we compute upon encrypted data?"
in their 1978 paper. Then we gradually follow the ideas sprouting in the
brilliant minds of Shafi Goldwasser, Kristin Lauter, Dan Bonch, Tomas Sander,
Donald Beaver, and Craig Gentry to address that vital question. It took more
than 30 years of collective effort to finally find the answer "yes" to that
important question.
- Abstract(参考訳): 暗号とデータサイエンスの研究はインターネットブームと共に指数関数的に成長した。
レガシー暗号化技術は、ユーザビリティ、利便性、セキュリティのトレードオフを強要する。
暗号化は、あらゆる操作を実行するたびに復号化される必要があるため、貴重なデータにアクセスできなくなる。
何十億ドルも節約でき、何百万人もの人々が、ユーザビリティ、利便性、セキュリティを損なわない暗号化手法の恩恵を受けることができます。
ホモモルフィック暗号化は、暗号化データ上で任意の操作を実行できるようなパラダイムである。
これにより、基盤となる生データにアクセスすることなく、洗練された機械学習アルゴリズムを実行できます。
したがって、準同型学習は、様々な政府や組織のプライバシールールによって無視された機密データから洞察を得る能力を提供する。
本稿では,Ronald L. Rivest と Len Alderman が1978年の論文で発表した準同型学習の考え方を「暗号化されたデータで計算できるか?」として追究する。
そして徐々に、Shafi Goldwasser氏、Kristin Lauter氏、Dan Bonch氏、Tomas Sander氏、Donald Beaver氏、Craig Gentry氏らの素晴らしい心に浮かぶアイデアに追随して、その重要な問題に対処します。
最終的にその重要な質問に対する"はい"を見つけるのに30年以上を要した。
関連論文リスト
- Simultaneous Haar Indistinguishability with Applications to Unclonable Cryptography [5.360892674012226]
本稿では,非局所量子状態の識別に関する新しい問題への還元を通じて,非閉包暗号に対する新しいアプローチを提案する。
我々の主な技術的成果は、各プレイヤーが独立してハールランダム状態を受ける場合と同一のハールランダム状態を受ける場合とを区別できないことを示すことである。
また、単一復号器の暗号化やリーク耐性のある秘密の共有にも影響することを示す。
論文 参考訳(メタデータ) (2024-05-16T17:30:55Z) - Lightweight Public Key Encryption in Post-Quantum Computing Era [0.0]
デジタル世界での信頼度は、暗号アルゴリズムのセキュリティに基づいています。
量子コンピュータの技術進歩の過程で、共通暗号化アルゴリズムの保護機能が脅かされている。
我々の概念は、古典的非対称暗号法の現代複雑性クラスへの変換を記述している。
論文 参考訳(メタデータ) (2023-11-24T21:06:42Z) - Learning in the Dark: Privacy-Preserving Machine Learning using Function Approximation [1.8907108368038215]
Learning in the Darkは、暗号化された画像を高精度に分類できる、プライバシ保護機械学習モデルである。
暗号化データ上で直接計算を行うことで、高精度な予測を行うことができる。
論文 参考訳(メタデータ) (2023-09-15T06:45:58Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - RiDDLE: Reversible and Diversified De-identification with Latent
Encryptor [57.66174700276893]
本研究は、Reversible and Diversified De-identification with Latent Encryptorの略であるRiDDLEを提示する。
事前に学習したStyleGAN2ジェネレータ上に構築されたRiDDLEは、潜伏空間内の顔のアイデンティティを暗号化して復号する。
論文 参考訳(メタデータ) (2023-03-09T11:03:52Z) - Revocable Cryptography from Learning with Errors [61.470151825577034]
我々は、量子力学の非閉鎖原理に基づいて、キー呼び出し機能を備えた暗号スキームを設計する。
我々は、シークレットキーが量子状態として表現されるスキームを、シークレットキーが一度ユーザから取り消されたら、それらが以前と同じ機能を実行する能力を持たないことを保証して検討する。
論文 参考訳(メタデータ) (2023-02-28T18:58:11Z) - Privacy-Preserving Chaotic Extreme Learning Machine with Fully
Homomorphic Encryption [5.010425616264462]
完全同型暗号を用いたカオス・エクストリーム学習マシンとその暗号化形式を提案する。
提案手法は,ほとんどのデータセットにおいて,従来のエクストリーム学習マシンとよくあるいは類似している。
論文 参考訳(メタデータ) (2022-08-04T11:29:52Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Homomorphically Encrypted Linear Contextual Bandit [39.5858373448478]
コンテキストバンディットは、連続的な意思決定問題におけるオンライン学習のためのフレームワークです。
非対称暗号に基づくプライバシー保護バンディットフレームワークを提案する。
設定の複雑さにもかかわらず、暗号化されたデータを通して学習できることが示される。
論文 参考訳(メタデータ) (2021-03-17T21:49:21Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。