論文の概要: Protecting Big Data Privacy Using Randomized Tensor Network
Decomposition and Dispersed Tensor Computation
- arxiv url: http://arxiv.org/abs/2101.04194v1
- Date: Mon, 4 Jan 2021 22:14:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 00:05:20.444664
- Title: Protecting Big Data Privacy Using Randomized Tensor Network
Decomposition and Dispersed Tensor Computation
- Title(参考訳): ランダム化テンソルネットワーク分解と分散テンソル計算を用いたビッグデータプライバシ保護
- Authors: Jenn-Bing Ong, Wee-Keong Ng, Ivan Tjuawinata, Chao Li, Jielin Yang,
Sai None Myne, Huaxiong Wang, Kwok-Yan Lam, C.-C. Jay Kuo
- Abstract要約: ビッグデータをランダム化テンソルネットワーク表現に分解し、1Dから3Dデータテンソルのプライバシー漏洩を解析するランダム化アルゴリズムを提案する。
実験により,提案手法はビッグデータの匿名化に役立ち,ビッグデータのストレージや計算に効率的であることが判明した。
- 参考スコア(独自算出の注目度): 31.249816839090165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data privacy is an important issue for organizations and enterprises to
securely outsource data storage, sharing, and computation on clouds / fogs.
However, data encryption is complicated in terms of the key management and
distribution; existing secure computation techniques are expensive in terms of
computational / communication cost and therefore do not scale to big data
computation. Tensor network decomposition and distributed tensor computation
have been widely used in signal processing and machine learning for
dimensionality reduction and large-scale optimization. However, the potential
of distributed tensor networks for big data privacy preservation have not been
considered before, this motivates the current study. Our primary intuition is
that tensor network representations are mathematically non-unique, unlinkable,
and uninterpretable; tensor network representations naturally support a range
of multilinear operations for compressed and distributed / dispersed
computation. Therefore, we propose randomized algorithms to decompose big data
into randomized tensor network representations and analyze the privacy leakage
for 1D to 3D data tensors. The randomness mainly comes from the complex
structural information commonly found in big data; randomization is based on
controlled perturbation applied to the tensor blocks prior to decomposition.
The distributed tensor representations are dispersed on multiple clouds / fogs
or servers / devices with metadata privacy, this provides both distributed
trust and management to seamlessly secure big data storage, communication,
sharing, and computation. Experiments show that the proposed randomization
techniques are helpful for big data anonymization and efficient for big data
storage and computation.
- Abstract(参考訳): データプライバシは、クラウド/フォグ上のデータストレージ、共有、計算を安全にアウトソースする組織や企業にとって重要な問題である。
しかし、データ暗号化はキー管理と分散の点で複雑であり、既存のセキュアな計算技術は計算/通信コストの点で高価であるため、ビッグデータ計算にはスケールしない。
テンソルネットワークの分解と分散テンソル計算は、次元削減と大規模最適化のために信号処理や機械学習に広く利用されている。
しかし、ビッグデータプライバシ保護のための分散テンソルネットワークの可能性はこれまで検討されておらず、これが現在の研究の動機となっている。
我々の第一の直感は、テンソルネットワーク表現は数学的に非一様であり、リンク不能であり、解釈不能である;テンソルネットワーク表現は、圧縮および分散/分散計算のための多線形演算の範囲を自然にサポートしている。
そこで我々は,ビッグデータをランダム化テンソルネットワーク表現に分解し,1次元から3次元のデータテンソルのプライバシー漏洩を分析するランダム化アルゴリズムを提案する。
ランダム化は、分解前のテンソルブロックに適用される制御された摂動に基づいている。
分散テンソル表現は、メタデータプライバシを備えた複数のクラウド/フォグ/サーバ/デバイスに分散される。これは、分散信頼と管理の両方を提供し、ビッグデータストレージ、通信、共有、計算をシームレスにセキュアにする。
実験により,提案手法はビッグデータの匿名化に役立ち,ビッグデータのストレージや計算に効率的であることが判明した。
関連論文リスト
- Anomaly Detection from a Tensor Train Perspective [44.99833362998488]
本稿では,データセットの異常検出のためのテンソルネットワークに一連のアルゴリズムを提案する。
これらのアルゴリズムは、圧縮中の通常のデータ構造を保存し、異常なデータ構造を削除している。
我々は,これらの手法の有効性を数値で検証し,Olivettiはデータセットとサイバーセキュリティデータセットを用いてサイバー攻撃を判定する。
論文 参考訳(メタデータ) (2024-09-23T13:55:58Z) - Privacy-Preserving Distributed Nonnegative Matrix Factorization [5.830814457423021]
完全分散非負行列分解(NMF)のためのプライバシ保護アルゴリズムを提案する。
各エージェントのローカルデータプライバシを保護しながら、分散した大規模データマトリックスを左右のマトリックスファクタに分解する。
エージェント間の左行列係数の協調推定を容易にし、各因子を生データを公開せずに推定することができる。
論文 参考訳(メタデータ) (2024-03-27T08:07:07Z) - Dash: Accelerating Distributed Private Convolutional Neural Network Inference with Arithmetic Garbled Circuits [6.912820984005411]
私たちは、悪質な攻撃者に対してセキュアな、高速で分散的なプライベート畳み込みニューラルネットワーク推論スキームであるDashを紹介します。
算術ガーブリングガジェット [BMR16] と派手なガーブリングガジェット [BCM+19] をベースとしており、Dashは算術ガーブラード回路を純粋にベースとしている。
論文 参考訳(メタデータ) (2023-02-13T13:48:08Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - RelaySum for Decentralized Deep Learning on Heterogeneous Data [71.36228931225362]
分散機械学習では、労働者はローカルデータのモデル更新を計算する。
労働者は中心的な調整なしに隣人とのみ通信するため、これらの更新はネットワーク上で徐々に伝播する。
このパラダイムは、全接続のないネットワーク上での分散トレーニングを可能にし、データのプライバシ保護と、データセンタでの分散トレーニングの通信コストの削減を支援する。
論文 参考訳(メタデータ) (2021-10-08T14:55:32Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。