論文の概要: RNNs perform task computations by dynamically warping neural representations
- arxiv url: http://arxiv.org/abs/2512.04310v1
- Date: Wed, 03 Dec 2025 23:01:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.914396
- Title: RNNs perform task computations by dynamically warping neural representations
- Title(参考訳): RNNはニューラル表現を動的にワープすることでタスク計算を行う
- Authors: Arthur Pellegrino, Angus Chadwick,
- Abstract要約: 本稿では、リカレントニューラルネットワーク(RNN)がタスク変数の表現を動的にワープすることで計算を行うことを示す。
RNNの時間変化幾何学を特徴付けることにより,動的ワープが計算の基本的な特徴であることを示す。
- 参考スコア(独自算出の注目度): 2.2917707112773598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analysing how neural networks represent data features in their activations can help interpret how they perform tasks. Hence, a long line of work has focused on mathematically characterising the geometry of such "neural representations." In parallel, machine learning has seen a surge of interest in understanding how dynamical systems perform computations on time-varying input data. Yet, the link between computation-through-dynamics and representational geometry remains poorly understood. Here, we hypothesise that recurrent neural networks (RNNs) perform computations by dynamically warping their representations of task variables. To test this hypothesis, we develop a Riemannian geometric framework that enables the derivation of the manifold topology and geometry of a dynamical system from the manifold of its inputs. By characterising the time-varying geometry of RNNs, we show that dynamic warping is a fundamental feature of their computations.
- Abstract(参考訳): ニューラルネットワークがアクティベーションにおけるデータ特徴をどのように表現しているかを分析することは、タスクの実行方法の解釈に役立ちます。
したがって、長い研究の行は、そのような「神経表現」の幾何学を数学的に特徴づけることに集中してきた。
並行して、機械学習は、動的システムが時間変化の入力データに対してどのように計算を行うかを理解することに、関心が高まっている。
しかし、計算スルー力学と表現幾何学の関連性はいまだよく分かっていない。
ここでは、リカレントニューラルネットワーク(RNN)がタスク変数の表現を動的にワープすることで計算を行うと仮定する。
この仮説をテストするために、入力の多様体から力学系の多様体位相と幾何学の導出を可能にするリーマン幾何学的枠組みを開発する。
RNNの時間変化幾何学を特徴付けることにより,動的ワープが計算の基本的な特徴であることを示す。
関連論文リスト
- Emergent Riemannian geometry over learning discrete computations on continuous manifolds [1.8665975431697432]
離散計算のシグネチャがニューラルネットワークの表現幾何学に現れることを示す。
我々は、異なる学習体制(リッチ対遅延)がメートル法と曲率構造を対比し、ネットワークが目に見えない入力に一般化する能力にどのように影響するかを実証する。
論文 参考訳(メタデータ) (2025-11-28T20:29:06Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - Interpretable statistical representations of neural population dynamics and geometry [4.459704414303749]
そこで我々は,manifold dynamics を局所流れ場に分解し,それらを共通潜在空間にマッピングする表現学習手法 MARBLE を提案する。
シミュレーションされた非線形力学系,リカレントニューラルネットワーク,および霊長類および歯列類からの実験的単一ニューロン記録において,創発的低次元潜伏表現が発見された。
これらの表現はニューラルネットワークや動物間で一貫性があり、認知計算の堅牢な比較を可能にする。
論文 参考訳(メタデータ) (2023-04-06T21:11:04Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Learning Deep Morphological Networks with Neural Architecture Search [19.731352645511052]
メタラーニングに基づく形態論的演算子をディープニューラルネットワークに組み込む手法を提案する。
学習したアーキテクチャは、我々の新しい形態的操作が、様々なタスクにおけるDNNのパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2021-06-14T19:19:48Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - The geometry of integration in text classification RNNs [20.76659136484842]
本研究では,自然テキスト分類タスクと合成テキスト分類タスクの両方のバッテリで訓練されたリカレントネットワークについて検討する。
これらの訓練されたRNNの力学は、解釈可能かつ低次元であることがわかった。
我々の観測は、複数のアーキテクチャとデータセットにまたがっており、RNNがテキスト分類を行うのに使用する共通メカニズムを反映している。
論文 参考訳(メタデータ) (2020-10-28T17:58:53Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。