論文の概要: Embedding interpretable $\ell_1$-regression into neural networks for uncovering temporal structure in cell imaging
- arxiv url: http://arxiv.org/abs/2603.02899v2
- Date: Sun, 08 Mar 2026 14:50:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.295118
- Title: Embedding interpretable $\ell_1$-regression into neural networks for uncovering temporal structure in cell imaging
- Title(参考訳): 細胞イメージングにおける時間構造解明のためのニューラルネットワークへの$\ell_1$-regressionの埋め込み
- Authors: Fabian Kabus, Maren Hackenberg, Julia Hindel, Thibault Cholvin, Antje Kilias, Thomas Brox, Abhinav Valada, Marlene Bartos, Harald Binder,
- Abstract要約: 本稿では,ベクトル自己回帰(VAR)モデルを解釈可能な回帰手法として畳み込み自己エンコーダに組み込む手法を提案する。
スキップ接続は、スパース構造をVARモデルに選択的にチャネルする非スパース静的空間情報に別々に対処する。
埋め込み統計モデルを持つことは、同じ観測単位からの時間的シーケンスを比較するためのテストアプローチを可能にする。
- 参考スコア(独自算出の注目度): 24.51358786006251
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While artificial neural networks excel in unsupervised learning of non-sparse structure, classical statistical regression techniques offer better interpretability, in particular when sparseness is enforced by $\ell_1$ regularization, enabling identification of which factors drive observed dynamics. We investigate how these two types of approaches can be optimally combined, exemplarily considering two-photon calcium imaging data where sparse autoregressive dynamics are to be extracted. We propose embedding a vector autoregressive (VAR) model as an interpretable regression technique into a convolutional autoencoder, which provides dimension reduction for tractable temporal modeling. A skip connection separately addresses non-sparse static spatial information, selectively channeling sparse structure into the $\ell_1$-regularized VAR. $\ell_1$-estimation of regression parameters is enabled by differentiating through the piecewise linear solution path. This is contrasted with approaches where the autoencoder does not adapt to the VAR model. Having an embedded statistical model also enables a testing approach for comparing temporal sequences from the same observational unit. Additionally, contribution maps visualize which spatial regions drive the learned dynamics.
- Abstract(参考訳): 非スパース構造の教師なし学習において、人工ニューラルネットワークが優れている一方で、古典的な統計的回帰手法は、特にスパースネスが$\ell_1$正規化によって強制される場合、より優れた解釈可能性を提供し、どの要因が観察されたダイナミクスを駆動するかを特定できるようにする。
これらの2種類のアプローチが,スパース自己回帰動態を抽出する2光子カルシウムイメージングデータを用いて,どのように最適に組み合わせられるかを検討する。
本稿では,ベクトル自己回帰モデル(VAR)を解釈可能な回帰手法として畳み込み型自己エンコーダに組み込む手法を提案する。
スキップ接続は、スパース構造を$\ell_1$-regularized VARに選択的にチャネルする非スパースな静的空間情報に別々に対処する。
回帰パラメータの$\ell_1$-推定は、ピースワイズ線形解パスを微分することで可能となる。
これは、オートエンコーダがVARモデルに適応しないアプローチとは対照的である。
埋め込み統計モデルを持つことは、同じ観測単位からの時間的シーケンスを比較するためのテストアプローチを可能にする。
さらに、コントリビューションマップは、どの空間領域が学習力学を駆動するかを視覚化する。
関連論文リスト
- Gradient Descent as a Perceptron Algorithm: Understanding Dynamics and Implicit Acceleration [67.12978375116599]
勾配降下(GD)のステップが一般化されたパーセプトロンアルゴリズムのステップに還元されることを示す。
これは、ニューラルネットワークで観測される最適化力学と暗黙の加速現象を説明するのに役立つ。
論文 参考訳(メタデータ) (2025-12-12T14:16:35Z) - Bilinear Convolution Decomposition for Causal RL Interpretability [0.0]
強化学習(RL)モデルを解釈する試みは、しばしば帰属や探究のような高度な技術に依存している。
本研究では、畳み込みニューラルネットワーク(ConvNets)の非線形性を双線型変種に置き換え、これらの制限に対処可能なモデルのクラスを作成することを提案する。
モデルフリー強化学習環境では,バイリニアモデルの変形が相容れないことを示し,ProcGen環境上での並べ比較を行う。
論文 参考訳(メタデータ) (2024-12-01T19:32:04Z) - Layered Models can "Automatically" Regularize and Discover Low-Dimensional Structures via Feature Learning [6.109362130047454]
入力が線形変換を行い、次に非線形写像によって出力を予測する2層非パラメトリック回帰モデルについて検討する。
2層モデルが正規化を「自動的に」誘導し,特徴学習を容易にすることを示す。
論文 参考訳(メタデータ) (2023-10-18T06:15:35Z) - Efficient Interpretable Nonlinear Modeling for Multiple Time Series [5.448070998907116]
本稿では,複数時系列に対する効率的な非線形モデリング手法を提案する。
異なる時系列変数間の非線形相互作用を含む。
実験結果から,提案アルゴリズムは相似的にVAR係数の支持値の同定を改善することが示された。
論文 参考訳(メタデータ) (2023-09-29T11:42:59Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - An Interpretable and Efficient Infinite-Order Vector Autoregressive
Model for High-Dimensional Time Series [1.4939176102916187]
本稿では,高次元時系列に対する新しいスパース無限次VARモデルを提案する。
このモデルによって得られたVARMA型力学の時間的・横断的な構造は別々に解釈できる。
統計的効率と解釈可能性の向上は、時間的情報をほとんど失わずに達成できる。
論文 参考訳(メタデータ) (2022-09-02T17:14:24Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。