論文の概要: New methods for metastimuli: architecture, embeddings, and neural
network optimization
- arxiv url: http://arxiv.org/abs/2102.07090v1
- Date: Sun, 14 Feb 2021 07:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:30:12.165648
- Title: New methods for metastimuli: architecture, embeddings, and neural
network optimization
- Title(参考訳): メタ刺激の新しい方法:アーキテクチャ、埋め込み、ニューラルネットワークの最適化
- Authors: Rico A.R. Picone, Dane Webb, Finbarr Obierefu, Jotham Lentz
- Abstract要約: 以前に提示された「メタ刺激アーキテクチャ」の6つの重要な新しい方法論の展開が提示されている。
これにはアーキテクチャの革新、リカレント(RNN)人工ニューラルネットワーク(ANN)アプリケーション、さまざまな原子埋め込み技術が含まれる。
ユーザPIMSにおける自動原子分類のためのシステムを使用するテクニックを概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Six significant new methodological developments of the previously-presented
"metastimuli architecture" for human learning through machine learning of
spatially correlated structural position within a user's personal information
management system (PIMS), providing the basis for haptic metastimuli, are
presented. These include architectural innovation, recurrent (RNN) artificial
neural network (ANN) application, a variety of atom embedding techniques
(including a novel technique we call "nabla" embedding inspired by
linguistics), ANN hyper-parameter (one that affects the network but is not
trained, e.g. the learning rate) optimization, and meta-parameter (one that
determines the system performance but is not trained and not a hyper-parameter,
e.g. the atom embedding technique) optimization for exploring the large design
space. A technique for using the system for automatic atom categorization in a
user's PIMS is outlined. ANN training and hyper- and meta-parameter
optimization results are presented and discussed in service of methodological
recommendations.
- Abstract(参考訳): ユーザの個人情報管理システム(PIMS)内の空間的に相関する構造的位置を機械学習により学習し,触覚メタ刺激の基礎となる,これまでに提示された「メタ刺激アーキテクチャ」の6つの新しい方法論的展開について述べる。
アーキテクチャ革新、リカレント(RNN)人工ニューラルネットワーク(ANN)アプリケーション、様々な原子埋め込み技術(言語学にインスパイアされた"ナブラ"埋め込みと呼ばれる新しいテクニックを含む)、ANNハイパーパラメータ(ネットワークに影響を与えるが、トレーニングされていないもの)などが含まれる。
学習率)最適化とメタパラメータ(システム性能を決定するが、訓練されていない、ハイパーパラメータなどではない)。
atom埋め込み技術) 大きな設計空間を探索するための最適化。
ユーザPIMSにおける自動原子分類のためのシステムを使用するテクニックを概説する。
ANNトレーニングとハイパーパラメーターおよびメタパラメーター最適化の結果を提示し、方法論的勧告に供して議論する。
関連論文リスト
- Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Re-visiting Reservoir Computing architectures optimized by Evolutionary
Algorithms [0.0]
進化的アルゴリズム(EA)はニューラルネットワーク(NN)アーキテクチャの改善に応用されている。
我々は、Reservoir Computing (RC) という、リカレントNNの特定の領域におけるEAの応用に関する体系的な簡単な調査を行う。
論文 参考訳(メタデータ) (2022-11-11T14:50:54Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - GradMax: Growing Neural Networks using Gradient Information [22.986063120002353]
本稿では,学習中に学習内容に影響を与えることなく新たなニューロンを付加し,トレーニングのダイナミクスを改良する手法を提案する。
この手法をGradMax(GradMax)と呼び、様々な視覚タスクやアーキテクチャにおいてその効果を実証する。
論文 参考訳(メタデータ) (2022-01-13T18:30:18Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。