論文の概要: New methods for metastimuli: architecture, embeddings, and neural
network optimization
- arxiv url: http://arxiv.org/abs/2102.07090v1
- Date: Sun, 14 Feb 2021 07:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:30:12.165648
- Title: New methods for metastimuli: architecture, embeddings, and neural
network optimization
- Title(参考訳): メタ刺激の新しい方法:アーキテクチャ、埋め込み、ニューラルネットワークの最適化
- Authors: Rico A.R. Picone, Dane Webb, Finbarr Obierefu, Jotham Lentz
- Abstract要約: 以前に提示された「メタ刺激アーキテクチャ」の6つの重要な新しい方法論の展開が提示されている。
これにはアーキテクチャの革新、リカレント(RNN)人工ニューラルネットワーク(ANN)アプリケーション、さまざまな原子埋め込み技術が含まれる。
ユーザPIMSにおける自動原子分類のためのシステムを使用するテクニックを概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Six significant new methodological developments of the previously-presented
"metastimuli architecture" for human learning through machine learning of
spatially correlated structural position within a user's personal information
management system (PIMS), providing the basis for haptic metastimuli, are
presented. These include architectural innovation, recurrent (RNN) artificial
neural network (ANN) application, a variety of atom embedding techniques
(including a novel technique we call "nabla" embedding inspired by
linguistics), ANN hyper-parameter (one that affects the network but is not
trained, e.g. the learning rate) optimization, and meta-parameter (one that
determines the system performance but is not trained and not a hyper-parameter,
e.g. the atom embedding technique) optimization for exploring the large design
space. A technique for using the system for automatic atom categorization in a
user's PIMS is outlined. ANN training and hyper- and meta-parameter
optimization results are presented and discussed in service of methodological
recommendations.
- Abstract(参考訳): ユーザの個人情報管理システム(PIMS)内の空間的に相関する構造的位置を機械学習により学習し,触覚メタ刺激の基礎となる,これまでに提示された「メタ刺激アーキテクチャ」の6つの新しい方法論的展開について述べる。
アーキテクチャ革新、リカレント(RNN)人工ニューラルネットワーク(ANN)アプリケーション、様々な原子埋め込み技術(言語学にインスパイアされた"ナブラ"埋め込みと呼ばれる新しいテクニックを含む)、ANNハイパーパラメータ(ネットワークに影響を与えるが、トレーニングされていないもの)などが含まれる。
学習率)最適化とメタパラメータ(システム性能を決定するが、訓練されていない、ハイパーパラメータなどではない)。
atom埋め込み技術) 大きな設計空間を探索するための最適化。
ユーザPIMSにおける自動原子分類のためのシステムを使用するテクニックを概説する。
ANNトレーニングとハイパーパラメーターおよびメタパラメーター最適化の結果を提示し、方法論的勧告に供して議論する。
関連論文リスト
- Direct Training High-Performance Deep Spiking Neural Networks: A Review of Theories and Methods [33.377770671553336]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワーク(ANN)の代替として有望なエネルギー効率を提供する
本稿では,より深いSNNを高い性能で訓練するための理論と手法を要約する新しい視点を提供する。
論文 参考訳(メタデータ) (2024-05-06T09:58:54Z) - Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - Re-visiting Reservoir Computing architectures optimized by Evolutionary
Algorithms [0.0]
進化的アルゴリズム(EA)はニューラルネットワーク(NN)アーキテクチャの改善に応用されている。
我々は、Reservoir Computing (RC) という、リカレントNNの特定の領域におけるEAの応用に関する体系的な簡単な調査を行う。
論文 参考訳(メタデータ) (2022-11-11T14:50:54Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - GradMax: Growing Neural Networks using Gradient Information [22.986063120002353]
本稿では,学習中に学習内容に影響を与えることなく新たなニューロンを付加し,トレーニングのダイナミクスを改良する手法を提案する。
この手法をGradMax(GradMax)と呼び、様々な視覚タスクやアーキテクチャにおいてその効果を実証する。
論文 参考訳(メタデータ) (2022-01-13T18:30:18Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。