論文の概要: Investigating Efficient Learning and Compositionality in Generative LSTM
Networks
- arxiv url: http://arxiv.org/abs/2004.07754v2
- Date: Tue, 20 Oct 2020 08:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 21:12:06.706894
- Title: Investigating Efficient Learning and Compositionality in Generative LSTM
Networks
- Title(参考訳): ジェネレーティブLSTMネットワークにおける効率的な学習と構成性の検討
- Authors: Sarah Fabi, Sebastian Otte, Jonas Gregor Wiese, Martin V. Butz
- Abstract要約: 人間は、構成的な方法でデータコンポーネントを再結合し、再統合することができるため、スパースデータセットから非常に広範囲に一般化することができる。
これまでに学習した動的サブストラクチャを再結合することで,本モデルがキャラクタチャレンジに適合できることを示す。
- 参考スコア(独自算出の注目度): 0.5161531917413706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When comparing human with artificial intelligence, one major difference is
apparent: Humans can generalize very broadly from sparse data sets because they
are able to recombine and reintegrate data components in compositional manners.
To investigate differences in efficient learning, Joshua B. Tenenbaum and
colleagues developed the character challenge: First an algorithm is trained in
generating handwritten characters. In a next step, one version of a new type of
character is presented. An efficient learning algorithm is expected to be able
to re-generate this new character, to identify similar versions of this
character, to generate new variants of it, and to create completely new
character types. In the past, the character challenge was only met by complex
algorithms that were provided with stochastic primitives. Here, we tackle the
challenge without providing primitives. We apply a minimal recurrent neural
network (RNN) model with one feedforward layer and one LSTM layer and train it
to generate sequential handwritten character trajectories from one-hot encoded
inputs. To manage the re-generation of untrained characters, when presented
with only one example of them, we introduce a one-shot inference mechanism: the
gradient signal is backpropagated to the feedforward layer weights only,
leaving the LSTM layer untouched. We show that our model is able to meet the
character challenge by recombining previously learned dynamic substructures,
which are visible in the hidden LSTM states. Making use of the compositional
abilities of RNNs in this way might be an important step towards bridging the
gap between human and artificial intelligence.
- Abstract(参考訳): 人間と人工知能を比較する場合、1つの大きな違いは明らかである: 人間が構成的な方法でデータコンポーネントを再結合し再統合できるので、スパースデータセットから非常に広範囲に一般化することができる。
効率のよい学習の違いを調べるために、Joshua B. Tenenbaum氏と同僚たちは、キャラクターチャレンジを開発した。
次のステップでは、新しいタイプのキャラクタの1つのバージョンが提示される。
効率的な学習アルゴリズムは、この新しいキャラクタを再生成し、同種のキャラクタを識別し、新しい変種を生成し、全く新しいキャラクタタイプを作成することができると期待されている。
過去には、文字チャレンジは確率的プリミティブを備えた複雑なアルゴリズムによってのみ満たされていた。
ここでは、プリミティブを提供しずに課題に取り組む。
1つのフィードフォワード層と1つのLSTM層を持つ最小リカレントニューラルネットワーク(RNN)モデルを適用し、それをトレーニングして、1ホットエンコードされた入力から手書き文字トラジェクトリを生成する。
トレーニングされていない文字の再生を管理するために,一対一の推論機構を導入する。勾配信号はフィードフォワード層のみに逆伝搬され,LSTM層は未接触のままである。
本モデルでは,従来学習した動的部分構造を隠れたlstm状態から再結合することにより,キャラクタチャレンジを満足できることを示す。
この方法でRNNの合成能力を活用することは、人間と人工知能のギャップを埋めるための重要なステップかもしれない。
関連論文リスト
- Boosting Semi-Supervised Scene Text Recognition via Viewing and Summarizing [71.29488677105127]
既存のシーンテキスト認識(STR)手法は、特に芸術的で歪んだ文字に対して、挑戦的なテキストを認識するのに苦労している。
人的コストを伴わずに、合成データと実際のラベルなしデータを活用して、対照的な学習ベースのSTRフレームワークを提案する。
本手法は,共通ベンチマークとUnion14M-Benchmarkで平均精度94.7%,70.9%のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-11-23T15:24:47Z) - Return of the RNN: Residual Recurrent Networks for Invertible Sentence
Embeddings [0.0]
本研究では、教師なし符号化タスクで訓練された残効再帰ネットワークを用いて、非可逆文埋め込みのための新しいモデルを提案する。
ニューラルネットワーク翻訳モデルに共通する確率的出力ではなく、回帰に基づく出力層を用いて入力シーケンスのワードベクトルを再構成する。
RNNはLSTMや2次最適化法などのメモリユニットを必要とすることを考えると、このモデルはADAMによる高精度かつ高速なトレーニングを実現している。
論文 参考訳(メタデータ) (2023-03-23T15:59:06Z) - Revisiting Recursive Least Squares for Training Deep Neural Networks [10.44340837533087]
再帰最小二乗法(RLS)アルゴリズムは、その高速収束のため、かつては小規模ニューラルネットワークのトレーニングに広く用いられていた。
従来のRSSアルゴリズムは、計算複雑性が高く、事前条件が多すぎるため、ディープニューラルネットワーク(DNN)のトレーニングには適さない。
本稿では,フィードフォワードニューラルネットワーク,畳み込みニューラルネットワーク,リカレントニューラルネットワークの3つの新しいRSS最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-07T17:43:51Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Separation of Memory and Processing in Dual Recurrent Neural Networks [0.0]
入力に接続する繰り返し層とフィードフォワード層を積み重ねるニューラルネットワークアーキテクチャを探索する。
繰り返し単位の活性化関数にノイズが導入されたとき、これらのニューロンは二項活性化状態に強制され、ネットワークは有限オートマトンのように振る舞う。
論文 参考訳(メタデータ) (2020-05-17T11:38:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。