論文の概要: Differentiable programming for functional connectomics
- arxiv url: http://arxiv.org/abs/2206.00649v1
- Date: Tue, 31 May 2022 10:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-04 08:26:12.452483
- Title: Differentiable programming for functional connectomics
- Title(参考訳): 関数コネクトミクスのための微分可能プログラミング
- Authors: Rastko Ciric (Department of Bioengineering, Stanford University),
Armin W. Thomas (Stanford Data Science, Stanford University), Oscar Esteban
(Department of Radiology, Universit\'e de Lausanne), Russell A. Poldrack
(Department of Psychology, Stanford University)
- Abstract要約: 本稿では,関数コネクトロミクスで使用される共通操作を,完全に微分可能な処理ブロックとして実装した新しい解析パラダイムとソフトウェアツールボックスを提案する。
この差別化プログラムは、従来のパイプラインとエンドツーエンドのニューラルネットワークの中間に位置する。
我々の成果とソフトウェアは、関数コネクトロミクスのための微分可能プログラミングの可能性を実証している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mapping the functional connectome has the potential to uncover key insights
into brain organisation. However, existing workflows for functional
connectomics are limited in their adaptability to new data, and principled
workflow design is a challenging combinatorial problem. We introduce a new
analytic paradigm and software toolbox that implements common operations used
in functional connectomics as fully differentiable processing blocks. Under
this paradigm, workflow configurations exist as reparameterisations of a
differentiable functional that interpolates them. The differentiable program
that we envision occupies a niche midway between traditional pipelines and
end-to-end neural networks, combining the glass-box tractability and domain
knowledge of the former with the amenability to optimisation of the latter. In
this preliminary work, we provide a proof of concept for differentiable
connectomics, demonstrating the capacity of our processing blocks both to
recapitulate canonical knowledge in neuroscience and to make new discoveries in
an unsupervised setting. Our differentiable modules are competitive with
state-of-the-art methods in problem domains including functional parcellation,
denoising, and covariance modelling. Taken together, our results and software
demonstrate the promise of differentiable programming for functional
connectomics.
- Abstract(参考訳): 機能的コネクトームのマッピングは、脳組織に対する重要な洞察を明らかにする可能性がある。
しかしながら、関数コネクトロミクスのための既存のワークフローは、新しいデータへの適応性に制限されており、原則化されたワークフロー設計は難しい組合せ問題である。
我々は,機能コネクトミクスで使用される共通操作を完全微分可能な処理ブロックとして実装する,新たな分析パラダイムとソフトウェアツールボックスを提案する。
このパラダイムでは、ワークフローの構成は、それらを補間する微分可能な関数の再パラメータとして存在します。
従来のパイプラインとエンドツーエンドのニューラルネットワークの間のニッチな中間を占有し、ガラス箱のトラクタビリティと前者のドメイン知識と、後者の最適化の可否を組み合わせている、と私たちは考えています。
本予備研究では,分化可能なコネクトミクスの概念の実証を行い,神経科学における正準的知識の再獲得と教師なしの環境での新しい発見の両面で処理ブロックの能力を示す。
我々の微分可能なモジュールは、関数パーセレーション、デノーミング、共分散モデリングを含む問題領域における最先端の手法と競合する。
この結果とソフトウェアは,関数コネクトロミクスにおける微分可能プログラミングの可能性を実証するものである。
関連論文リスト
- Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Unification of popular artificial neural network activation functions [0.0]
本稿では,最も一般的なニューラルネットワーク活性化関数の統一表現について述べる。
分数計算のMittag-Leffler関数を採用することにより、フレキシブルでコンパクトな関数形式を提案する。
論文 参考訳(メタデータ) (2023-02-21T21:20:59Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Functional connectivity ensemble method to enhance BCI performance
(FUCONE) [3.510884437562011]
本稿では,機能的接続推定器と共分散に基づくパイプラインを組み合わせて精神状態の分類を行う新しいフレームワークを提案する。
機能接続推定器の徹底的な評価を行い、FUCONEと呼ばれる最高の実行パイプラインを異なる条件で評価する。
論文 参考訳(メタデータ) (2021-11-04T19:40:08Z) - Compressing Deep ODE-Nets using Basis Function Expansions [105.05435207079759]
重みの定式化を基底関数の線形結合を用いた連続深度関数とみなす。
この観点では、ほぼ最先端の性能を維持しながら、再トレーニングすることなく、ベースの変化によって重みを圧縮することができる。
これにより、推論時間とメモリフットプリントの両方が削減され、計算環境間の高速で厳密な適応が可能となる。
論文 参考訳(メタデータ) (2021-06-21T03:04:51Z) - Learning Interpretable Models for Coupled Networks Under Domain
Constraints [8.308385006727702]
脳ネットワークの構造的エッジと機能的エッジの相互作用に着目して,結合ネットワークの概念を検討する。
相互作用を推定しながらノイズ項にハードネットワークの制約を課す新しい定式化を提案する。
ヒトコネクトームプロジェクトから得られたマルチシェル拡散およびタスク誘発fMRIデータセットの手法を検証する。
論文 参考訳(メタデータ) (2021-04-19T06:23:31Z) - Neural Network Approximations of Compositional Functions With
Applications to Dynamical Systems [3.660098145214465]
我々は,合成関数とそのニューラルネットワーク近似の近似理論を開発した。
構成関数の重要な特徴の集合と,ニューラルネットワークの特徴と複雑性の関係を同定する。
関数近似に加えて、ニューラルネットワークの誤差上限の式もいくつか証明する。
論文 参考訳(メタデータ) (2020-12-03T04:40:25Z) - Learning Sub-Patterns in Piecewise Continuous Functions [4.18804572788063]
ほとんどの勾配降下アルゴリズムは、パラメータでサブ微分可能なニューラルネットワークを最適化することができる。
本稿では,異なるサブパターンから不連続が生じる場合に焦点を当てる。
分離された2段階の手順でトレーニング可能な,不連続なディープニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2020-10-29T13:44:13Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Differentiable Causal Discovery from Interventional Data [141.41931444927184]
本稿では、介入データを活用可能なニューラルネットワークに基づく理論的基盤化手法を提案する。
提案手法は,様々な環境下での美術品の状態と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-07-03T15:19:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。