論文の概要: Regularizing Recurrent Neural Networks via Sequence Mixup
- arxiv url: http://arxiv.org/abs/2012.07527v1
- Date: Fri, 27 Nov 2020 05:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 01:19:20.631227
- Title: Regularizing Recurrent Neural Networks via Sequence Mixup
- Title(参考訳): 逐次混合によるリカレントニューラルネットワークの正規化
- Authors: Armin Karamzade, Amir Najafi and Seyed Abolfazl Motahari
- Abstract要約: 我々は、元々フィードフォワードニューラルネットワークのために提案された一連の有望な正規化手法を拡張した。
提案手法は,単純なニューラルネットワークアーキテクチャの性能を生かしながら,複雑性の実装が容易である。
- 参考スコア(独自算出の注目度): 7.036759195546171
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we extend a class of celebrated regularization techniques
originally proposed for feed-forward neural networks, namely Input Mixup (Zhang
et al., 2017) and Manifold Mixup (Verma et al., 2018), to the realm of
Recurrent Neural Networks (RNN). Our proposed methods are easy to implement and
have a low computational complexity, while leverage the performance of simple
neural architectures in a variety of tasks. We have validated our claims
through several experiments on real-world datasets, and also provide an
asymptotic theoretical analysis to further investigate the properties and
potential impacts of our proposed techniques. Applying sequence mixup to
BiLSTM-CRF model (Huang et al., 2015) to Named Entity Recognition task on
CoNLL-2003 data (Sang and De Meulder, 2003) has improved the F-1 score on the
test stage and reduced the loss, considerably.
- Abstract(参考訳): 本稿では,入力混合(Zhang et al., 2017)とマニフォールド混合(Verma et al., 2018)という,フィードフォワードニューラルネットワークにもともと提案されていた有名な正規化手法を,リカレントニューラルネットワーク(RNN)の領域に拡張する。
提案手法は実装が容易で計算量も少ないが,様々なタスクにおいて単純なニューラルアーキテクチャの性能を活用している。
我々は、実世界のデータセットに関するいくつかの実験を通して、我々の主張を検証するとともに、提案手法の性質と潜在的影響をさらに調査するための漸近的な理論的分析を提供する。
CoNLL-2003データ(Sang and De Meulder, 2003)上で, BiLSTM-CRFモデル(Huang et al., 2015)を名前付きエンティティ認識タスクに適用することにより,テストステージにおけるF-1スコアを改善し,損失を大幅に低減した。
関連論文リスト
- Time Elastic Neural Networks [2.1756081703276]
時間弾性ニューラルネットワーク(teNN)という,非定型ニューラルネットワークアーキテクチャの導入と詳細化について述べる。
古典的ニューラルネットワークアーキテクチャと比較して新しいのは、時間ゆがみ能力を明確に組み込んでいることだ。
トレーニング過程において,TENNは各細胞に必要となるニューロン数を減少させることに成功した。
論文 参考訳(メタデータ) (2024-05-27T09:01:30Z) - Neural Network with Local Converging Input (NNLCI) for Supersonic Flow
Problems with Unstructured Grids [0.9152133607343995]
非構造データを用いた高忠実度予測のための局所収束入力(NNLCI)を用いたニューラルネットワークを開発した。
また, NNLCI法を用いて, バンプを有するチャネル内の超音速流の可視化を行った。
論文 参考訳(メタデータ) (2023-10-23T19:03:37Z) - Iterative self-transfer learning: A general methodology for response
time-history prediction based on small dataset [0.0]
本研究では,小さなデータセットに基づいてニューラルネットワークを学習するための反復的自己伝達学習手法を提案する。
提案手法は,小さなデータセットに対して,ほぼ一桁の精度でモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T18:48:04Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - SymNMF-Net for The Symmetric NMF Problem [62.44067422984995]
我々は,Symmetric NMF問題に対するSymNMF-Netと呼ばれるニューラルネットワークを提案する。
各ブロックの推測は最適化の単一イテレーションに対応することを示す。
実世界のデータセットに関する実証的な結果は、我々のSymNMF-Netの優位性を示している。
論文 参考訳(メタデータ) (2022-05-26T08:17:39Z) - On Feature Learning in Neural Networks with Global Convergence
Guarantees [49.870593940818715]
勾配流(GF)を用いた広帯域ニューラルネットワーク(NN)の最適化について検討する。
入力次元がトレーニングセットのサイズ以下である場合、トレーニング損失はGFの下での線形速度で0に収束することを示す。
また、ニューラル・タンジェント・カーネル(NTK)システムとは異なり、我々の多層モデルは特徴学習を示し、NTKモデルよりも優れた一般化性能が得られることを実証的に示す。
論文 参考訳(メタデータ) (2022-04-22T15:56:43Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Ensembles of Spiking Neural Networks [0.3007949058551534]
本稿では,最先端の結果を生み出すスパイクニューラルネットワークのアンサンブルを構築する方法について述べる。
MNIST, NMNIST, DVS Gestureデータセットの分類精度は98.71%, 100.0%, 99.09%である。
我々は、スパイキングニューラルネットワークをGLM予測器として形式化し、ターゲットドメインに適した表現を識別する。
論文 参考訳(メタデータ) (2020-10-15T17:45:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Continual Learning in Recurrent Neural Networks [67.05499844830231]
リカレントニューラルネットワーク(RNN)を用いた逐次データ処理における連続学習手法の有効性を評価する。
RNNに弾性重み強化などの重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重み-重
そこで本研究では,重み付け手法の性能が処理シーケンスの長さに直接的な影響を受けず,むしろ高動作メモリ要求の影響を受けていることを示す。
論文 参考訳(メタデータ) (2020-06-22T10:05:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。