論文の概要: EchoLSTM: A Self-Reflective Recurrent Network for Stabilizing Long-Range Memory
- arxiv url: http://arxiv.org/abs/2511.01950v1
- Date: Mon, 03 Nov 2025 11:04:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.608547
- Title: EchoLSTM: A Self-Reflective Recurrent Network for Stabilizing Long-Range Memory
- Title(参考訳): EchoLSTM - 長期記憶の安定化のための自己反射型リカレントネットワーク
- Authors: Prasanth K K, Shubham Sharma,
- Abstract要約: 本稿では,モデルが自己回帰を行うことを可能にする新しいアーキテクチャ原理,アウトプット・コンディション・ゲーティングを提案する。
これにより安定化されたフィードバックループが生成され、メモリ保持が向上する。
我々は、EchoLSTMを一連の挑戦的なベンチマークで評価する。
- 参考スコア(独自算出の注目度): 1.4557098800700885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard Recurrent Neural Networks, including LSTMs, struggle to model long-range dependencies, particularly in sequences containing noisy or misleading information. We propose a new architectural principle, Output-Conditioned Gating, which enables a model to perform self-reflection by modulating its internal memory gates based on its own past inferences. This creates a stabilizing feedback loop that enhances memory retention. Our final model, the EchoLSTM, integrates this principle with an attention mechanism. We evaluate the EchoLSTM on a series of challenging benchmarks. On a custom-designed Distractor Signal Task, the EchoLSTM achieves 69.0% accuracy, decisively outperforming a standard LSTM baseline by 33 percentage points. Furthermore, on the standard ListOps benchmark, the EchoLSTM achieves performance competitive with a modern Transformer model, 69.8% vs. 71.8%, while being over 5 times more parameter-efficient. A final Trigger Sensitivity Test provides qualitative evidence that our model's self-reflective mechanism leads to a fundamentally more robust memory system.
- Abstract(参考訳): LSTMを含む標準リカレントニューラルネットワークは、特にノイズや誤解を招く情報を含むシーケンスにおいて、長距離依存のモデル化に苦慮している。
本稿では,モデルが過去の推論に基づいて内部メモリゲートを変調することで自己回帰を行うことを可能にする,新たなアーキテクチャ原理である出力制御ゲーティングを提案する。
これにより安定化されたフィードバックループが生成され、メモリ保持が向上する。
最終モデルであるEchoLSTMは、この原理と注意機構を統合する。
我々は、EchoLSTMを一連の挑戦的なベンチマークで評価する。
カスタム設計のDistractor Signal Taskでは、EchoLSTMは69.0%の精度を達成し、標準のLSTMベースラインを33ポイント上回っている。
さらに、標準のListOpsベンチマークでは、EchoLSTMは現代的なTransformerモデルと69.8%対71.8%で性能を競い合うが、パラメータ効率は5倍以上である。
最終的なトリガー感度テストは、我々のモデルの自己反射機構が根本的に堅牢なメモリシステムにつながるという定性的な証拠を提供する。
関連論文リスト
- Spec2VolCAMU-Net: A Spectrogram-to-Volume Model for EEG-to-fMRI Reconstruction based on Multi-directional Time-Frequency Convolutional Attention Encoder and Vision-Mamba U-Net [13.510069069207548]
高分解能核磁気共鳴イメージング(fMRI)はヒト脳活動のマッピングに不可欠である。
既存のEEG-to-fMRIジェネレータは、チャネル間の時間周波数キューをキャプチャできないプレーンな畳み込みネットワーク(CNN)に依存している。
リッチな特徴抽出のための多方向時間周波数畳み込みアテンションを特徴とする軽量アーキテクチャであるSpec2VolCAMU-Netを提案する。
論文 参考訳(メタデータ) (2025-05-14T16:18:21Z) - Dynamic Noise Preference Optimization for LLM Self-Improvement via Synthetic Data [51.62162460809116]
我々は、イテレーション間で一貫した改善を保証するために、動的ノイズ優先最適化(DNPO)を導入します。
Zephyr-7Bでの実験では、DNPOは既存の手法を一貫して上回り、平均性能は2.6%向上した。
DNPOは、GPT-4評価のベースラインに比べて29.4%のウィンロス率差で、モデル生成データの品質が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-02-08T01:20:09Z) - LatentSync: Taming Audio-Conditioned Latent Diffusion Models for Lip Sync with SyncNet Supervision [13.447234794835921]
安定収束のために設計されたアーキテクチャを備えたStableSyncNetを紹介する。
提案手法は,HDTFおよびVoxCeleb2データセット上での様々な評価指標にまたがって,最先端のリップシンクアプローチを超越する。
論文 参考訳(メタデータ) (2024-12-12T13:20:52Z) - Working Memory Connections for LSTM [51.742526187978726]
ワーキングメモリ接続は,様々なタスクにおけるLSTMの性能を常に向上することを示す。
数値的な結果は、細胞状態がゲート構造に含まれる価値のある情報を含んでいることを示唆している。
論文 参考訳(メタデータ) (2021-08-31T18:01:30Z) - "Forget" the Forget Gate: Estimating Anomalies in Videos using
Self-contained Long Short-Term Memory Networks [20.211951213040937]
本稿では,LSTMに基づく新たな自己完結型ネットワークを学習し,ビデオ中の異常を検出する手法を提案する。
忘れゲートを破棄し,シグモイドを活性化させることにより,両ゲート型軽量LSTM細胞を導入する。
取り外しゲートを除去するとLSTMセルが簡素化され、性能効率と計算効率が向上する。
論文 参考訳(メタデータ) (2021-04-03T20:43:49Z) - Multi-view Frequency LSTM: An Efficient Frontend for Automatic Speech
Recognition [4.753402561130792]
複数のFLSTMスタックの出力を異なるビューで組み合わせることで、シンプルで効率的な修正を行う。
本研究では,マルチビューFLSTM音響モデルにより,話者・音響環境の異なるシナリオに対して,単語誤り率(WER)が3~7%向上することを示す。
論文 参考訳(メタデータ) (2020-06-30T22:19:53Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Towards a Competitive End-to-End Speech Recognition for CHiME-6 Dinner
Party Transcription [73.66530509749305]
本稿では,難しい場合であっても,ハイブリッドベースラインに近い性能を示すエンドツーエンドアプローチについて論じる。
CTC-Attention と RNN-Transducer のアプローチと RNN と Transformer のアーキテクチャを比較し,解析する。
RNN-Transducerをベースとしたベストエンド・ツー・エンドモデルでは、ビームサーチの改善とともに、LF-MMI TDNN-F CHiME-6 Challengeのベースラインよりも品質が3.8%向上した。
論文 参考訳(メタデータ) (2020-04-22T19:08:33Z) - High-Accuracy and Low-Latency Speech Recognition with Two-Head
Contextual Layer Trajectory LSTM Model [46.34788932277904]
我々は,高精度かつ低遅延自動音声認識のための従来のハイブリッドLSTM音響モデルの改良を行った。
高い精度を達成するために、時間的モデリングとターゲット分類タスクを分離する文脈層トラジェクトリLSTM(cltLSTM)を用いる。
シーケンスレベルの教師学生学習による学習戦略をさらに改善する。
論文 参考訳(メタデータ) (2020-03-17T00:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。