論文の概要: On the Suitability of Neural Networks as Building Blocks for The Design
of Efficient Learned Indexes
- arxiv url: http://arxiv.org/abs/2203.14777v1
- Date: Mon, 21 Feb 2022 11:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 07:58:10.112405
- Title: On the Suitability of Neural Networks as Building Blocks for The Design
of Efficient Learned Indexes
- Title(参考訳): 効率的な学習指標設計のためのビルディングブロックとしてのニューラルネットワークの適合性について
- Authors: Domenico Amato, Giosue' Lo Bosco, Raffaele Giancarlo
- Abstract要約: 新たなトレンドは、機械学習技術とデータ構造を適切に組み合わせることだ。
この新しい領域はLearred Data Structuresという名前で書かれている。
我々は、ニューラルネットワークを学習データ構造の構築ブロックとして用いることに関する、最初の、より必要な比較実験分析を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the aim of obtaining time/space improvements in classic Data Structures,
an emerging trend is to combine Machine Learning techniques with the ones
proper of Data Structures. This new area goes under the name of Learned Data
Structures. The motivation for its study is a perceived change of paradigm in
Computer Architectures that would favour the use of Graphics Processing Units
and Tensor Processing Units over conventional Central Processing Units. In
turn, that would favour the use of Neural Networks as building blocks of
Classic Data Structures. Indeed, Learned Bloom Filters, which are one of the
main pillars of Learned Data Structures, make extensive use of Neural Networks
to improve the performance of classic Filters. However, no use of Neural
Networks is reported in the realm of Learned Indexes, which is another main
pillar of that new area. In this contribution, we provide the first, and much
needed, comparative experimental analysis regarding the use of Neural Networks
as building blocks of Learned Indexes. The results reported here highlight the
need for the design of very specialized Neural Networks tailored to Learned
Indexes and it establishes a solid ground for those developments. Our findings,
methodologically important, are of interest to both Scientists and Engineers
working in Neural Networks Design and Implementation, in view also of the
importance of the application areas involved, e.g., Computer Networks and Data
Bases.
- Abstract(参考訳): 古典的なデータ構造における時間と空間の改善を目標として、機械学習技術とデータ構造の適切なものを組み合わせた新たなトレンドが生まれている。
この新しい領域は、学習したデータ構造の名前で呼ばれる。
その研究の動機は、従来の中央処理ユニットよりもグラフィクス処理ユニットとテンソル処理ユニットを使うことを好むコンピュータアーキテクチャにおけるパラダイムの変化である。
それによって、古典的なデータ構造の構築ブロックとしてニューラルネットワークの使用が好まれる。
実際、学習データ構造の主要な柱の一つである学習ブルームフィルタは、古典的なフィルタの性能を向上させるためにニューラルネットワークを広範囲に活用している。
しかし、ニューラルネットワークの利用は、新しい領域のもう一つの柱であるLearred Indexesの領域では報告されていない。
本稿では,ニューラルネットワークを学習インデックスの構築ブロックとして用いることに関する,最初の,より必要な比較実験分析を行う。
ここで報告された結果は、学習インデックスに適した非常に特殊なニューラルネットワークの設計の必要性を強調し、これらの開発のための確かな基盤を確立している。
我々の発見は,ニューラルネットワークの設計と実装に携わる科学者と技術者の両方にとって,コンピュータネットワークやデータベースなど,関連するアプリケーション領域の重要性も考慮して,方法論的に重要である。
関連論文リスト
- Homological Neural Networks: A Sparse Architecture for Multivariate
Complexity [0.0]
我々は,基礎となるデータのホモロジー構造上に構築された,疎密な高階グラフィカルアーキテクチャを特徴とする,新しいディープニューラルネットワークユニットを開発する。
その結果、この新しい設計の利点は、ごく少数のパラメータだけで最先端の機械学習モデルとディープラーニングモデルの結果を結び付けるか、克服することができる。
論文 参考訳(メタデータ) (2023-06-27T09:46:16Z) - DQNAS: Neural Architecture Search using Reinforcement Learning [6.33280703577189]
畳み込みニューラルネットワークは様々な画像関連アプリケーションで使われている。
本稿では,強化学習の原則を取り入れた,ニューラルネットワークの自動探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-17T04:01:47Z) - Convolution, aggregation and attention based deep neural networks for
accelerating simulations in mechanics [1.0154623955833253]
固体の変形を効率的に学習するための3種類のニューラルネットワークアーキテクチャを実証する。
最初の2つは、最近提案されたCNN U-NETとMagNETフレームワークに基づいており、メッシュベースのデータで学習する上で有望なパフォーマンスを示している。
第3のアーキテクチャであるPerceiver IOは、注目に基づくニューラルネットワークのファミリに属する、非常に最近のアーキテクチャである。
論文 参考訳(メタデータ) (2022-12-01T13:10:56Z) - Comparison Analysis of Traditional Machine Learning and Deep Learning
Techniques for Data and Image Classification [62.997667081978825]
本研究の目的は、コンピュータビジョン2次元オブジェクト分類タスクに使用される最も一般的な機械学習およびディープラーニング技術を分析し比較することである。
まず、視覚語モデルと深部畳み込みニューラルネットワーク(DCNN)の理論的背景を示す。
次に、Bag of Visual Wordsモデル、VGG16 CNN Architectureを実装します。
論文 参考訳(メタデータ) (2022-04-11T11:34:43Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - On the performance of deep learning for numerical optimization: an
application to protein structure prediction [0.0]
本稿では,グローバルな最適化問題に対処するディープラーニングモデルの性能について述べる。
提案手法は、効率的なニューラルネットワークを生成するために、NAS(Neural Architecture Search)の概念を採用する。
実験により、手書きのアルゴリズムと比較して、生成された学習モデルが競合する結果が得られることが明らかになった。
論文 参考訳(メタデータ) (2020-12-17T17:01:30Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。