論文の概要: EinHops: Einsum Notation for Expressive Homomorphic Operations on RNS-CKKS Tensors
- arxiv url: http://arxiv.org/abs/2507.07972v1
- Date: Thu, 10 Jul 2025 17:50:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.52478
- Title: EinHops: Einsum Notation for Expressive Homomorphic Operations on RNS-CKKS Tensors
- Title(参考訳): EinHops: RNS-CKKSテンソル上での表現的同型演算に対するEinsum表記法
- Authors: Karthik Garimella, Austin Ebel, Brandon Reagen,
- Abstract要約: ホモモルフィック暗号化(FHE)は、暗号化されたデータ上で直接計算を行うことを可能にする。
FHEはSIMD加算、SIMD乗算、および1-Dベクトルの巡回回転という限られた命令セットを提供する。
本稿では、Einsum式をFHE操作の固定シーケンスに分解するミニマリストシステムであるEinHopsを提案する。
- 参考スコア(独自算出の注目度): 3.0088450191132394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fully Homomorphic Encryption (FHE) is an encryption scheme that allows for computation to be performed directly on encrypted data, effectively closing the loop on secure and outsourced computing. Data is encrypted not only during rest and transit, but also during processing. However, FHE provides a limited instruction set: SIMD addition, SIMD multiplication, and cyclic rotation of 1-D vectors. This restriction makes performing multi-dimensional tensor operations challenging. Practitioners must pack these tensors into 1-D vectors and map tensor operations onto this one-dimensional layout rather than their traditional nested structure. And while prior systems have made significant strides in automating this process, they often hide critical packing decisions behind layers of abstraction, making debugging, optimizing, and building on top of these systems difficult. In this work, we approach multi-dimensional tensor operations in FHE through Einstein summation (einsum) notation. Einsum notation explicitly encodes dimensional structure and operations in its syntax, naturally exposing how tensors should be packed and transformed. We decompose einsum expressions into a fixed set of FHE-friendly operations. We implement our design and present EinHops, a minimalist system that factors einsum expressions into a fixed sequence of FHE operations. EinHops enables developers to perform encrypted tensor operations using FHE while maintaining full visibility into the underlying packing strategy. We evaluate EinHops on a range of tensor operations from a simple transpose to complex multi-dimensional contractions. We show that the explicit nature of einsum notation allows us to build an FHE tensor system that is simple, general, and interpretable. We open-source EinHops at the following repository: https://github.com/baahl-nyu/einhops.
- Abstract(参考訳): FHE(Fully Homomorphic Encryption)は、暗号化されたデータに直接計算を実行し、セキュアでアウトソースなコンピューティングのループを効果的に閉じることのできる暗号化方式である。
データは、休息や移動中だけでなく、処理中も暗号化される。
しかし、FHEはSIMD加算、SIMD乗算、および1-Dベクトルの巡回回転という限られた命令セットを提供する。
この制限は多次元テンソル演算を困難にする。
これらのテンソルを1次元ベクトルにまとめ、テンソル演算を従来のネスト構造ではなく、この1次元のレイアウトにマッピングしなければならない。
そして、以前のシステムは、このプロセスを自動化するために大きな努力をしてきたが、しばしば、抽象レイヤの背後にある重要なパッケージングの決定を隠蔽し、デバッグ、最適化、構築を困難にしている。
本研究では、アインシュタイン和(einsum)記法を用いてFHEにおける多次元テンソル演算にアプローチする。
Einsum表記は、その構文の次元構造と操作を明示的にエンコードし、テンソルの充填と変換の仕方を自然に明らかにする。
我々はeinsum式をFHEフレンドリな操作の固定セットに分解する。
我々は、Einsum式をFHE操作の固定シーケンスに変換するミニマリストシステムであるEinHopsを実装した。
EinHopsを使用すると、開発者はFHEを使用して暗号化テンソル操作を実行できる。
簡単な転置から複素多次元縮約へのテンソル演算の幅でEinHopsを評価する。
固有表記の明示的な性質により、単純で一般的で解釈可能なFHEテンソルシステムを構築することができることを示す。
私たちは以下のリポジトリでEinHopsをオープンソースにしています。
関連論文リスト
- An introduction to graphical tensor notation for mechanistic
interpretability [0.0]
テンソル間でどの操作が行われているのかを混乱させるのは容易です。
この文書の前半は表記法を導入し、いくつかの分解に適用する。
後半は、言語モデルを機械的に理解するためのいくつかの基本的なアプローチに適用します。
論文 参考訳(メタデータ) (2024-02-02T02:56:01Z) - Reduce Computational Complexity for Convolutional Layers by Skipping Zeros [9.833821501774596]
本稿では,畳み込みニューラルネットワークの効率的なアルゴリズムを提案する。
C-K-SアルゴリズムにはGPUの効率的な実装が伴っている。
実験により、C-K-Sは速度と収束の点で優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2023-06-28T06:21:22Z) - TensorKrowch: Smooth integration of tensor networks in machine learning [46.0920431279359]
PyTorch上に構築されたオープンソースのPythonライブラリであるKrowchを紹介します。
ユーザは任意のテンソルネットワークを構築してトレーニングし、より複雑なディープラーニングモデルにレイヤとして統合することができる。
論文 参考訳(メタデータ) (2023-06-14T15:55:19Z) - Softmax-free Linear Transformers [90.83157268265654]
視覚変換器(ViT)は、視覚知覚タスクの最先端を推し進めている。
既存の手法は理論的に欠陥があるか、視覚認識に経験的に効果がないかのいずれかである。
我々はSoftmax-Free Transformers (SOFT) のファミリーを提案する。
論文 参考訳(メタデータ) (2022-07-05T03:08:27Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Stack operation of tensor networks [10.86105335102537]
本稿では,テンソルネットワークスタックアプローチに対する数学的に厳密な定義を提案する。
本稿では、行列製品状態に基づく機械学習を例として、主なアイデアを例に挙げる。
論文 参考訳(メタデータ) (2022-03-28T12:45:13Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Tensor Relational Algebra for Machine Learning System Design [7.764107702934616]
本稿では、リレーショナルテンソル代数(TRA)と呼ばれる別の実装抽象化を提案する。
TRA は、リレーショナル代数に基づく集合基底代数である。
我々の実証研究は、最適化されたTRAベースのバックエンドが、分散クラスタでMLを実行する際の選択肢を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-09-01T15:51:24Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。