論文の概要: A constrained recursion algorithm for batch normalization of
tree-sturctured LSTM
- arxiv url: http://arxiv.org/abs/2008.09409v1
- Date: Fri, 21 Aug 2020 10:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 20:52:57.242056
- Title: A constrained recursion algorithm for batch normalization of
tree-sturctured LSTM
- Title(参考訳): 木構造LSTMのバッチ正規化のための制約付き再帰アルゴリズム
- Authors: Ruo Ando, Yoshiyasu Takefuji
- Abstract要約: 木構造LSTMは階層上の長距離相互作用を考える上で有望な方法である。
提案手法はバッチ数などのハイパーパラメータチューニングに有効である。
- 参考スコア(独自算出の注目度): 0.29008108937701327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tree-structured LSTM is promising way to consider long-distance interaction
over hierarchies. However, there have been few research efforts on the
hyperparameter tuning of the construction and traversal of tree-structured
LSTM. To name a few, hyperparamters such as the interval of state
initialization, the number of batches for normalization have been left
unexplored specifically in applying batch normalization for reducing training
cost and parallelization. In this paper, we propose a novel recursive algorithm
for traversing batch normalized tree-structured LSTM. In proposal method, we
impose the constraint on the recursion algorithm for the depth-first search of
binary tree representation of LSTM for which batch normalization is applied.
With our constrained recursion, we can control the hyperparameter in the
traversal of several tree-structured LSTMs which is generated in the process of
batch normalization. The tree traversal is divided into two steps. At first
stage, the width-first search over models is applied for discover the start
point of the latest tree-structured LSTM block. Then, the depth-first search is
run to traverse tree-structured LSTM. Proposed method enables us to explore the
optimized selection of hyperparameters of recursive neural network
implementation by changing the constraints of our recursion algorithm. In
experiment, we measure and plot the validation loss and computing time with
changing the length of internal of state initialization of tree-structured
LSTM. It has been turned out that proposal method is effective for
hyperparameter tuning such as the number of batches and length of interval of
state initialization of tree-structured LSTM.
- Abstract(参考訳): 木構造LSTMは階層上の長距離相互作用を考える上で有望な方法である。
しかし,木構造LSTMの構築と走行のハイパーパラメータチューニングに関する研究はほとんど行われていない。
例えば、状態初期化の間隔のようなハイパーパラメータは、トレーニングコストと並列化を減らすためにバッチ正規化を適用することに特化して検討されていない。
本稿では,バッチ正規化木構造LSTMをトラバースする新しい再帰アルゴリズムを提案する。
提案手法では,バッチ正規化を適用したLSTMの2進木表現の深度優先探索のための再帰アルゴリズムに制約を課す。
制約付き再帰法により、バッチ正規化の過程で発生するいくつかの木構造LSTMのトラバースにおけるハイパーパラメータを制御できる。
木道は2つの段階に分けられる。
まず,最新の木構造LSTMブロックの開始点を発見するために,モデルの幅優先探索を適用した。
次に、深度優先探索を行い、木構造LSTMを横切る。
提案手法により,再帰アルゴリズムの制約を変更することにより,再帰的ニューラルネットワーク実装のハイパーパラメータの選択を最適化することが可能になる。
実験では,木構造LSTMの状態初期化の長さを変化させることで,検証損失と計算時間を計測・プロットする。
提案手法は,木構造LSTMのバッチ数や状態初期化間隔の長さなどのハイパーパラメータチューニングに有効であることが判明した。
関連論文リスト
- Des-q: a quantum algorithm to construct and efficiently retrain decision
trees for regression and binary classification [2.7262923206583136]
回帰および二分分類タスクにおける決定木の構築と再学習のための新しい量子アルゴリズムDes-qを導入する。
Des-qアルゴリズムは木の再学習に要する時間を大幅に短縮することを示した。
論文 参考訳(メタデータ) (2023-09-18T17:56:08Z) - Update Monte Carlo tree search (UMCTS) algorithm for heuristic global
search of sizing optimization problems for truss structures [1.2277343096128712]
更新モンテカルロ木探索 (UMCTS) と呼ばれる新しい効率的な最適化アルゴリズムを開発し, トラス構造を適切に設計する。
提案手法の計算時間は分岐境界法 (BB) の少なくとも10倍高速である。
論文 参考訳(メタデータ) (2023-09-12T08:29:53Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Revisiting Recursive Least Squares for Training Deep Neural Networks [10.44340837533087]
再帰最小二乗法(RLS)アルゴリズムは、その高速収束のため、かつては小規模ニューラルネットワークのトレーニングに広く用いられていた。
従来のRSSアルゴリズムは、計算複雑性が高く、事前条件が多すぎるため、ディープニューラルネットワーク(DNN)のトレーニングには適さない。
本稿では,フィードフォワードニューラルネットワーク,畳み込みニューラルネットワーク,リカレントニューラルネットワークの3つの新しいRSS最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-07T17:43:51Z) - Robustifying Algorithms of Learning Latent Trees with Vector Variables [92.18777020401484]
Recursive Grouping (RG) と Chow-Liu Recursive Grouping (CLRG) のサンプル複雑性について述べる。
RG,CLRG,Neighbor Joining (NJ) およびSpectral NJ (SNJ) をトラッピングした内積を用いて強化する。
我々は、潜在木の構造学習において、最初の既知のインスタンス依存の不合理性の結果を導出する。
論文 参考訳(メタデータ) (2021-06-02T01:37:52Z) - Spectral Top-Down Recovery of Latent Tree Models [13.681975313065477]
スペクトルトップダウン・リカバリ (STDR) は、大きな潜在木モデルを推定するための分割・コンカレントアプローチである。
STDRの分割ステップは非ランダムです。
代わりに、観測されたノードに関連する適切なラプラシア行列のFiedlerベクトルに基づいている。
私達はSTDRが統計的に一貫性があることを証明し、高い確率で木を正確に回復するために必要なサンプルの数を縛ります。
論文 参考訳(メタデータ) (2021-02-26T02:47:42Z) - Trilevel Neural Architecture Search for Efficient Single Image
Super-Resolution [127.92235484598811]
本稿では,高効率単一画像超解像(SR)のための3レベルニューラルネットワーク探索法を提案する。
離散探索空間をモデル化するために、離散探索空間に新たな連続緩和を適用し、ネットワークパス、セル操作、カーネル幅の階層的混合を構築する。
階層型スーパーネット方式による最適化を行うため,効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-17T12:19:49Z) - Growing Deep Forests Efficiently with Soft Routing and Learned
Connectivity [79.83903179393164]
この論文は、いくつかの重要な側面で深い森林のアイデアをさらに拡張します。
我々は、ノードがハードバイナリ決定ではなく、確率的ルーティング決定、すなわちソフトルーティングを行う確率的ツリーを採用する。
MNISTデータセットの実験は、私たちの力のある深部森林が[1]、[3]よりも優れたまたは匹敵するパフォーマンスを達成できることを示しています。
論文 参考訳(メタデータ) (2020-12-29T18:05:05Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - A Tree Architecture of LSTM Networks for Sequential Regression with
Missing Data [0.0]
本稿では,Long Short-Term Memory (LSTM) ネットワークに基づく新しいツリーアーキテクチャを提案する。
アーキテクチャでは、配列内の既存の入力のみを使用するLSTMネットワークの可変数を用いる。
我々は、よく知られた財務・実生活データセットの最先端手法に関して、大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2020-05-22T18:57:47Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。