論文の概要: Data-Efficient Neural Training with Dynamic Connectomes
- arxiv url: http://arxiv.org/abs/2508.06817v1
- Date: Sat, 09 Aug 2025 04:32:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.563872
- Title: Data-Efficient Neural Training with Dynamic Connectomes
- Title(参考訳): 動的コネクトームを用いたデータ効率の良いニューラルトレーニング
- Authors: Yutong Wu, Peilin He, Tananun Songdechakraiwut,
- Abstract要約: 本稿では,神経活動の発達を機能的コネクトームとして表現することで,ニューラルネットワークのトレーニングダイナミクスを特徴付ける新しいアプローチを提案する。
これらのシグネチャは,ネットワークの機能的構造において重要な遷移を効果的に捉えていることを示す。
- 参考スコア(独自算出の注目度): 1.2260914111581283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study of dynamic functional connectomes has provided valuable insights into how patterns of brain activity change over time. Neural networks process information through artificial neurons, conceptually inspired by patterns of activation in the brain. However, their hierarchical structure and high-dimensional parameter space pose challenges for understanding and controlling training dynamics. In this study, we introduce a novel approach to characterize training dynamics in neural networks by representing evolving neural activations as functional connectomes and extracting dynamic signatures of activity throughout training. Our results show that these signatures effectively capture key transitions in the functional organization of the network. Building on this analysis, we propose the use of a time series of functional connectomes as an intrinsic indicator of learning progress, enabling a principled early stopping criterion. Our framework performs robustly across benchmarks and provides new insights into neural network training dynamics.
- Abstract(参考訳): 動的機能コネクトームの研究は、時間の経過とともに脳の活動パターンがどのように変化するかについて貴重な洞察を与えてきた。
ニューラルネットワークは、脳内の活性化パターンに着想を得た人工ニューロンを介して情報を処理する。
しかし、それらの階層構造と高次元パラメータ空間は、訓練力学の理解と制御に困難をもたらす。
本研究では,神経活動の発達を機能的コネクトームとして表現し,トレーニング中の活動の動的シグネチャを抽出することにより,ニューラルネットワークのトレーニングダイナミクスを特徴付ける新しいアプローチを提案する。
これらのシグネチャは,ネットワークの機能的構造において重要な遷移を効果的に捉えていることを示す。
本分析に基づいて,本研究では,学習進行の本質的な指標として,関数型コネクトームの時系列的使用を提案する。
私たちのフレームワークは、ベンチマーク全体で堅牢に動作し、ニューラルネットワークのトレーニングダイナミクスに関する新たな洞察を提供する。
関連論文リスト
- Graph-Based Representation Learning of Neuronal Dynamics and Behavior [2.3859858429583665]
本稿では,時間変動ニューロン接続をモデル化する新しいフレームワークTAVRNNを紹介する。
TAVRNNは、解釈可能な集団レベルの表現を維持しながら、単一単位レベルで潜伏ダイナミクスを学習する。
TAVRNNは,(1)自由行動ラットの電気生理学的データ,(2)到達作業中の霊長類体性感覚皮質記録,(3)仮想ゲーム環境と相互作用するDishBrainプラットフォーム内の生物学的ニューロンの3つのデータセットで検証した。
論文 参考訳(メタデータ) (2024-10-01T13:19:51Z) - From Lazy to Rich: Exact Learning Dynamics in Deep Linear Networks [47.13391046553908]
人工ネットワークでは、これらのモデルの有効性はタスク固有の表現を構築する能力に依存している。
以前の研究では、異なる初期化によって、表現が静的な遅延状態にあるネットワークや、表現が動的に進化するリッチ/フィーチャーな学習体制のいずれかにネットワークを配置できることが強調されていた。
これらの解は、豊かな状態から遅延状態までのスペクトルにわたる表現とニューラルカーネルの進化を捉えている。
論文 参考訳(メタデータ) (2024-09-22T23:19:04Z) - DSAM: A Deep Learning Framework for Analyzing Temporal and Spatial Dynamics in Brain Networks [4.041732967881764]
ほとんどのrs-fMRI研究は、関心のある脳領域にまたがる単一の静的機能接続行列を計算している。
これらのアプローチは、脳のダイナミクスを単純化し、目の前のゴールを適切に考慮していないリスクがある。
本稿では,時系列から直接ゴール固有の機能的接続行列を学習する,解釈可能な新しいディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-19T23:35:06Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Understanding Activation Patterns in Artificial Neural Networks by
Exploring Stochastic Processes [0.0]
我々はこれまで未利用であったプロセスの枠組みを活用することを提案する。
我々は、実際のニューロンスパイク列車に使用される神経科学技術を活用した、アクティベーション周波数のみに焦点をあてる。
各ネットワークにおけるアクティベーションパターンを記述するパラメータを導出し、アーキテクチャとトレーニングセット間で一貫した差異を明らかにする。
論文 参考訳(メタデータ) (2023-08-01T22:12:30Z) - Learning low-dimensional dynamics from whole-brain data improves task
capture [2.82277518679026]
逐次変分オートエンコーダ(SVAE)を用いたニューラルダイナミクスの低次元近似学習手法を提案する。
本手法は,従来の手法よりも精度の高い認知過程を予測できるスムーズなダイナミクスを見出す。
我々は、モータ、ワーキングメモリ、リレーショナル処理タスクを含む様々なタスクfMRIデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-05-18T18:43:13Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Learning Contact Dynamics using Physically Structured Neural Networks [81.73947303886753]
ディープニューラルネットワークと微分方程式の接続を用いて、オブジェクト間の接触ダイナミクスを表現するディープネットワークアーキテクチャのファミリを設計する。
これらのネットワークは,ノイズ観測から不連続な接触事象をデータ効率良く学習できることを示す。
以上の結果から,タッチフィードバックの理想化形態は,この学習課題を扱いやすくするための重要な要素であることが示唆された。
論文 参考訳(メタデータ) (2021-02-22T17:33:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。