論文の概要: Learning-Based Data Storage [Vision] (Technical Report)
- arxiv url: http://arxiv.org/abs/2206.05778v1
- Date: Sun, 12 Jun 2022 16:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 17:58:26.894306
- Title: Learning-Based Data Storage [Vision] (Technical Report)
- Title(参考訳): 学習に基づくデータストレージ [ビジョン] (技術報告)
- Authors: Xiang Lian, Xiaofei Zhang
- Abstract要約: 我々は、データストレージの新しいパラダイムであるDNN-as-a-Databaseを構想し、よく訓練された機械学習モデルでデータをエンコードする。
本稿では,LMU(Learning-based memory unit)と呼ばれる学習構造を利用した,学習ベースデータストレージの新たな概念を提案する。
予備実験の結果,DNN ストレージの精度を高い(100%) 精度で向上させることで,学習ベースデータストレージの実現可能性を示した。
- 参考スコア(独自算出の注目度): 9.882820980833698
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural network (DNN) and its variants have been extensively used for a
wide spectrum of real applications such as image classification, face/speech
recognition, fraud detection, and so on. In addition to many important machine
learning tasks, as artificial networks emulating the way brain cells function,
DNNs also show the capability of storing non-linear relationships between input
and output data, which exhibits the potential of storing data via DNNs. We
envision a new paradigm of data storage, "DNN-as-a-Database", where data are
encoded in well-trained machine learning models. Compared with conventional
data storage that directly records data in raw formats, learning-based
structures (e.g., DNN) can implicitly encode data pairs of inputs and outputs
and compute/materialize actual output data of different resolutions only if
input data are provided. This new paradigm can greatly enhance the data
security by allowing flexible data privacy settings on different levels,
achieve low space consumption and fast computation with the acceleration of new
hardware (e.g., Diffractive Neural Network and AI chips), and can be
generalized to distributed DNN-based storage/computing. In this paper, we
propose this novel concept of learning-based data storage, which utilizes a
learning structure called learning-based memory unit (LMU), to store, organize,
and retrieve data. As a case study, we use DNNs as the engine in the LMU, and
study the data capacity and accuracy of the DNN-based data storage. Our
preliminary experimental results show the feasibility of the learning-based
data storage by achieving high (100%) accuracy of the DNN storage. We explore
and design effective solutions to utilize the DNN-based data storage to manage
and query relational tables. We discuss how to generalize our solutions to
other data types (e.g., graphs) and environments such as distributed DNN
storage/computing.
- Abstract(参考訳): deep neural network(dnn)とその変種は、画像分類、顔/音声認識、不正検出など、さまざまな実応用に広く使用されている。
多くの重要な機械学習タスクに加えて、DNNは、脳細胞の役割をエミュレートする人工ネットワークのように、入力データと出力データの間の非線形関係を保存する能力を示す。
我々は、データストレージの新しいパラダイムであるDNN-as-a-Databaseを構想し、よく訓練された機械学習モデルでデータをエンコードする。
生のフォーマットでデータを直接記録する従来のデータストレージと比べ、学習ベースの構造(例えばDNN)は、入力と出力のデータペアを暗黙的にエンコードし、入力データが提供される場合にのみ、異なる解像度の実際の出力データを計算/物質化する。
この新たなパラダイムは、さまざまなレベルで柔軟なデータプライバシ設定を可能にし、新しいハードウェア(Diffractive Neural NetworkやAIチップなど)のアクセラレーションによる低空間消費と高速な計算を実現し、分散DNNベースのストレージ/コンピューティングに一般化することで、データセキュリティを大幅に強化することができる。
本稿では,lmu(learning-based memory unit)と呼ばれる学習構造を用いてデータの保存,整理,検索を行う,学習ベースのデータストレージという新しい概念を提案する。
ケーススタディでは、DNNをLMUのエンジンとして使用し、DNNベースのデータストレージのデータ容量と精度について検討する。
予備実験の結果,dnnストレージの高精度(100%)化により,学習に基づくデータストレージの実現可能性を示した。
我々は、dnnベースのデータストレージを利用してリレーショナルテーブルの管理とクエリを行う効果的なソリューションを探索し設計する。
本稿では,分散DNNストレージ/計算など,他のデータ型(グラフなど)や環境へのソリューションの一般化について論じる。
関連論文リスト
- DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - A Tale of Two Cities: Data and Configuration Variances in Robust Deep
Learning [27.498927971861068]
ディープニューラルネットワーク(DNN)は、画像認識、サプライチェーン、診断、自律運転など、多くの産業で広く利用されている。
これまでの研究では、入力データと外部環境が常に変化しているため、DNNモデルの高精度さは、高いロバスト性を示すものではなかった。
論文 参考訳(メタデータ) (2022-11-18T03:32:53Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Estimating Traffic Speeds using Probe Data: A Deep Neural Network
Approach [1.5469452301122177]
本稿では,sparseデータに基づく高速道路の時空トラヒック速度を再現する,専用ディープニューラルネットワークアーキテクチャを提案する。
2ヶ月の間にドイツ高速道路A9で収集された大規模な浮動小数点データ(FCD)を利用する。
以上の結果から,DNNは学習パターンを適用でき,静止渋滞だけでなく移動パターンを高精度に再構築できることがわかった。
論文 参考訳(メタデータ) (2021-04-19T23:32:12Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - NN-EMD: Efficiently Training Neural Networks using Encrypted
Multi-Sourced Datasets [7.067870969078555]
暗号化データセット上で機械学習モデルをトレーニングすることは、プライバシ保護機械学習タスクに対処するための、既存の有望なアプローチである。
複数の情報源から収集された複数のデータセット上でディープニューラルネットワーク(DNN)モデルをトレーニングするための新しいフレームワークであるNN-EMDを提案する。
MNISTデータセットのトレーニング時間とモデル精度について,本フレームワークの性能評価を行った。
論文 参考訳(メタデータ) (2020-12-18T23:01:20Z) - Analyzing and Mitigating Data Stalls in DNN Training [7.444113272493349]
本稿では、入力データパイプラインがディープニューラルネットワーク(DNN)のトレーニング時間にどのように影響するかを、初めて包括的に分析する。
多くの場合、DNNのトレーニング時間はデータ停止時間(データのフェッチと前処理を待つ時間)に支配されています。
データストールを緩和するために、データローディングライブラリであるCoorDLに3つのシンプルだが効果的なテクニックを実装します。
論文 参考訳(メタデータ) (2020-07-14T02:16:56Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - Constructing Deep Neural Networks with a Priori Knowledge of Wireless
Tasks [37.060397377445504]
無線タスクに広く存在する2種類の置換不変性は、モデルパラメータの数を減らすために利用することができる。
可変DNN (permutation invariant DNN) と呼ばれる特性を満たす入出力関係を持つDNNの特殊構造を求める。
予測資源配分と干渉調整を例として,教師なし・教師なし学習による最適政策学習にPINNをいかに活用できるかを示す。
論文 参考訳(メタデータ) (2020-01-29T08:54:42Z) - Neural Data Server: A Large-Scale Search Engine for Transfer Learning
Data [78.74367441804183]
我々は,ターゲットドメインに最も有用な転送学習データを見つけるための大規模検索エンジンであるNeural Data Server (NDS)を紹介した。
NDSは、いくつかの人気のある画像データセットをインデックスするデータサーバで構成され、クライアントにデータを推奨することを目的としている。
我々は,NDSが様々な伝達学習シナリオにおいて有効であることを示し,複数のターゲットデータセットに対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-01-09T01:21:30Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。