論文の概要: A Deep Learning Approach to Analyzing Continuous-Time Systems
- arxiv url: http://arxiv.org/abs/2209.12128v1
- Date: Sun, 25 Sep 2022 03:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:02:54.163152
- Title: A Deep Learning Approach to Analyzing Continuous-Time Systems
- Title(参考訳): 連続時間システム解析のための深層学習手法
- Authors: Cory Shain and William Schuler
- Abstract要約: 深層学習が複雑なプロセスの解析に有効であることを示す。
提案手法は,多くの自然系に対して不可解な標準的な仮定を緩和する。
行動・神経画像データにおける予測可能性の劇的な改善を示す。
- 参考スコア(独自算出の注目度): 20.89961728689037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientists often use observational time series data to study complex natural
processes, from climate change to civil conflict to brain activity. But
regression analyses of these data often assume simplistic dynamics. Recent
advances in deep learning have yielded startling improvements to the
performance of models of complex processes, from speech comprehension to
nuclear physics to competitive gaming. But deep learning is generally not used
for scientific analysis. Here, we bridge this gap by showing that deep learning
can be used, not just to imitate, but to analyze complex processes, providing
flexible function approximation while preserving interpretability. Our approach
-- the continuous-time deconvolutional regressive neural network (CDRNN) --
relaxes standard simplifying assumptions (e.g., linearity, stationarity, and
homoscedasticity) that are implausible for many natural systems and may
critically affect the interpretation of data. We evaluate CDRNNs on incremental
human language processing, a domain with complex continuous dynamics. We
demonstrate dramatic improvements to predictive likelihood in behavioral and
neuroimaging data, and we show that CDRNNs enable flexible discovery of novel
patterns in exploratory analyses, provide robust control of possible confounds
in confirmatory analyses, and open up research questions that are otherwise
hard to study using observational data.
- Abstract(参考訳): 科学者は、しばしば観測時系列データを使用して、気候変動から内戦、脳活動まで、複雑な自然過程を研究する。
しかし、これらのデータの回帰分析はしばしば単純力学を仮定する。
近年のディープラーニングの進歩により、音声理解から核物理学、競争ゲームに至るまで、複雑なプロセスのモデルの性能が飛躍的に向上した。
しかし、ディープラーニングは一般的に科学分析には使われない。
ここでは、深層学習を模倣するだけでなく、複雑なプロセスを解析し、解釈可能性を維持しながらフレキシブルな関数近似を提供することによって、このギャップを埋める。
我々のアプローチ -- CDRNN (Continuous-time deconvolutional Regressive Neural Network) - は、多くの自然システムでは不可能であり、データの解釈に批判的な、標準的な単純化された仮定(例えば、線形性、定常性、ホモスケーダスティック性)を緩和する。
複雑な連続力学を持つ領域であるインクリメンタルヒューマン言語処理におけるCDRNNの評価を行った。
行動・神経画像データの予測可能性に対する劇的な改善を実証し,cdrnnが探索分析において新しいパターンを柔軟に発見し,確認分析において可能なコンファンスを堅牢に制御し,その他の観測データを用いて研究が困難である研究課題を解き明かした。
関連論文リスト
- Improving Self-supervised Molecular Representation Learning using
Persistent Homology [6.263470141349622]
自己教師付き学習(SSL)は、分子表現学習に大きな可能性を秘めている。
本稿では,複数のスケールにまたがるデータのトポロジ的特徴をモデル化するための数学的ツールである永続ホモロジー(PH)に基づくSSLについて検討する。
論文 参考訳(メタデータ) (2023-11-29T02:58:30Z) - Learning Latent Dynamics via Invariant Decomposition and
(Spatio-)Temporal Transformers [0.6767885381740952]
本研究では,高次元経験データから力学系を学習する手法を提案する。
我々は、システムの複数の異なるインスタンスからデータが利用できる設定に焦点を当てる。
我々は、単純な理論的分析と、合成および実世界のデータセットに関する広範な実験を通して行動を研究する。
論文 参考訳(メタデータ) (2023-06-21T07:52:07Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Constructing Effective Machine Learning Models for the Sciences: A
Multidisciplinary Perspective [77.53142165205281]
線形回帰モデルに変数間の変換や相互作用を手動で追加することで、非線形解が必ずしも改善されないことを示す。
データ駆動モデルを構築する前にこれを認識する方法や、そのような分析が本質的に解釈可能な回帰モデルへの移行にどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2022-11-21T17:48:44Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Learning dynamics from partial observations with structured neural ODEs [5.757156314867639]
本稿では,ニューラルODEに基づくシステム識別に関する幅広い物理的知見を取り入れたフレキシブルなフレームワークを提案する。
本稿では,ロボット外骨格を用いた数値シミュレーションおよび実験データセットにおける提案手法の性能について述べる。
論文 参考訳(メタデータ) (2022-05-25T07:54:10Z) - An Information-Theoretic Framework for Supervised Learning [22.280001450122175]
後悔とサンプルの複雑さという独自の概念を持つ新しい情報理論フレームワークを提案する。
本稿では、ReLUアクティベーションユニットを用いたディープニューラルネットワークによって生成されたデータから学習する際のサンプルの複雑さについて検討する。
我々は、ランダムな単層ニューラルネットワークの実験的な解析により、理論結果を裏付けることで結論付ける。
論文 参考訳(メタデータ) (2022-03-01T05:58:28Z) - Learning continuous models for continuous physics [94.42705784823997]
本研究では,科学技術応用のための機械学習モデルを検証する数値解析理論に基づくテストを開発する。
本研究は,従来のMLトレーニング/テスト手法と一体化して,科学・工学分野におけるモデルの検証を行う方法である。
論文 参考訳(メタデータ) (2022-02-17T07:56:46Z) - Leveraging the structure of dynamical systems for data-driven modeling [111.45324708884813]
トレーニングセットとその構造が長期予測の品質に与える影響を考察する。
トレーニングセットのインフォームドデザインは,システムの不変性と基盤となるアトラクションの構造に基づいて,結果のモデルを大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-12-15T20:09:20Z) - Deep learning of contagion dynamics on complex networks [0.0]
本稿では,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングに基づく補完的アプローチを提案する。
任意のネットワーク構造をシミュレーションすることで,学習したダイナミックスの性質を学習データを超えて探索することが可能になる。
この結果は,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングが新たな補完的な視点を提供することを示す。
論文 参考訳(メタデータ) (2020-06-09T17:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。