論文の概要: A Trainable Sequence Learner that Learns and Recognizes Two-Input
Sequence Patterns
- arxiv url: http://arxiv.org/abs/2210.12193v1
- Date: Fri, 21 Oct 2022 18:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 15:07:33.691729
- Title: A Trainable Sequence Learner that Learns and Recognizes Two-Input
Sequence Patterns
- Title(参考訳): 2入力シーケンスパターンを学習・認識する訓練可能なシーケンス学習者
- Authors: Jan Hohenheim, Zhaoyu Devon Liu, Tommaso Stecconi, Pietro Palopoli
- Abstract要約: 本稿では,2つの入力の時間列を検出するアナログ回路の設計について述べる。
トレーニングフェーズは、回路に所望のシーケンスを供給することによって行われる。
トレーニングされたシーケンスに再び遭遇するたびに、回路は正しい認識の信号を出力する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present two designs for an analog circuit that can learn to detect a
temporal sequence of two inputs. The training phase is done by feeding the
circuit with the desired sequence and, after the training is completed, each
time the trained sequence is encountered again the circuit will emit a signal
of correct recognition. Sequences are in the order of tens of nanoseconds. The
first design can reset the trained sequence on runtime but assumes very strict
timing of the inputs. The second design can only be trained once but is lenient
in the input's timing.
- Abstract(参考訳): 本稿では,2つの入力の時間列を検出するアナログ回路の設計について述べる。
訓練フェーズは、所望のシーケンスを回路に供給することで行われ、訓練が完了した後、訓練されたシーケンスが再び遭遇するたびに、回路は正しい認識信号を発する。
配列は数十ナノ秒の順序である。
最初の設計では、トレーニングされたシーケンスを実行時にリセットできるが、入力の非常に厳密なタイミングを前提としている。
第2の設計は一度しか訓練できないが、入力のタイミングに寛大である。
関連論文リスト
- Algorithmic Capabilities of Random Transformers [49.73113518329544]
埋め込み層のみを最適化したランダムトランスフォーマーによって、どのような関数が学習できるかを検討する。
これらのランダムなトランスフォーマーは、幅広い意味のあるアルゴリズムタスクを実行することができる。
以上の結果から,これらのモデルが訓練される前にも,アルゴリズム能力がトランスフォーマに存在することが示唆された。
論文 参考訳(メタデータ) (2024-10-06T06:04:23Z) - Custom DNN using Reward Modulated Inverted STDP Learning for Temporal
Pattern Recognition [0.0]
時間的スパイク認識は、異常検出、キーワードスポッティング、神経科学など、様々な領域において重要な役割を果たす。
本稿では,スパース事象系列データに基づく時間的スパイクパターン認識のための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-15T18:57:27Z) - A Light-Weight Contrastive Approach for Aligning Human Pose Sequences [1.0152838128195467]
トレーニングサンプルは、モカプマーカーや骨格関節などの3Dボディポイントを含むフレームの時間窓で構成されている。
拡張サンプル対の埋め込みベクトルにコサイン類似度1と、他のすべてのサンプルとミニバッチで類似度0を付与するコントラスト損失関数を用いて、軽量3層エンコーダを訓練する。
簡単なことに加えて、提案手法は訓練が速く、異なるマーカーセットや骨格関節レイアウトを用いて新しいデータに適応しやすくする。
論文 参考訳(メタデータ) (2023-03-07T21:35:02Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z) - Machine Learning-Assisted Manipulation and Readout of Molecular Spin
Qubits [0.0]
本研究では、ニューラルネットワークを用いて、原型分子スピン量子ビットの操作と読み出しを支援する。
まず, エコー位置を認識するために, 4つの入力パルスを用いたStorage/Retrievalプロトコルの出力を分析するために, 人工ネットワークを成功させた。
次に,実験によって測定されたハーンエコーの位相の同定にニューラルネットワークを適用し,その位相を正確に検出し,操作中に追加される単一パルス位相シフトを認識することができることを示す。
論文 参考訳(メタデータ) (2022-08-05T23:58:09Z) - Duplex Sequence-to-Sequence Learning for Reversible Machine Translation [53.924941333388155]
機械翻訳のようなシーケンス・ツー・シーケンス(seq2seq)問題は双方向である。
我々は、em二重化seq2seqニューラルネットワークを提案し、機械翻訳に適用する。
広く使用されている機械翻訳ベンチマークの実験は、REDERがリバーシブル機械翻訳の最初の成功を達成することを検証します。
論文 参考訳(メタデータ) (2021-05-07T18:21:57Z) - Alleviate Exposure Bias in Sequence Prediction \\ with Recurrent Neural
Networks [47.52214243454995]
繰り返しニューラルネットワーク(RNN)を訓練する一般的な戦略は、各ステップで入力として地上の真実を取ることです。
本稿では,RNNの長期的依存関係をよりよく把握するための,完全微分可能なトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-22T06:15:22Z) - Latent Programmer: Discrete Latent Codes for Program Synthesis [56.37993487589351]
プログラム合成や文書要約などの多くのシーケンス学習タスクにおいて、重要な問題は出力シーケンスの広い空間を探索することである。
本稿では,検索対象とする出力の表現を学習することを提案する。
本稿では,まず入力/出力サンプルから離散潜在コードを予測するプログラム合成手法であるemphLatent Programmerを紹介し,そのプログラムを対象言語で生成する。
論文 参考訳(メタデータ) (2020-12-01T10:11:35Z) - Minimum Latency Training Strategies for Streaming Sequence-to-Sequence
ASR [44.229256049718316]
線形時間復号複雑性を伴うオンライン音声認識を実現するために,ストリームアテンションに基づくシーケンス・ツー・シーケンス(S2S)モデルが提案されている。
これらのモデルでは、一方向エンコーダには将来的な情報がないため、実際の音響境界よりもトークンを生成する決定が遅れる。
本稿では,ハイブリッドモデルから抽出した外部ハードアライメントを活用することで,トレーニング中のいくつかの戦略を提案する。
Cortana音声検索タスクの実験により,提案手法は遅延を著しく低減し,デコーダ側の特定の場合の認識精度も向上することを示した。
論文 参考訳(メタデータ) (2020-04-10T12:24:49Z) - Imputer: Sequence Modelling via Imputation and Dynamic Programming [101.5705527605346]
Imputerは反復生成モデルであり、入力トークンや出力トークンの数に依存しない一定の数の生成ステップしか必要としない。
本稿では,ログ限界確率の低い動的プログラミング学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-20T18:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。