論文の概要: Predictive Sparse Manifold Transform
- arxiv url: http://arxiv.org/abs/2308.14207v1
- Date: Sun, 27 Aug 2023 21:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 16:16:36.030827
- Title: Predictive Sparse Manifold Transform
- Title(参考訳): 予測スパース多様体変換
- Authors: Yujia Xie, Xinhui Li, Vince D. Calhoun
- Abstract要約: PSMTは、自然力学を学習し、予測するための最小限の、解釈可能で生物学的に妥当なフレームワークである。
本研究は,PSMTが将来の視覚刺激の予測のための効率的な教師なし生成フレームワークであることを示す。
- 参考スコア(独自算出の注目度): 36.03796527574897
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Predictive Sparse Manifold Transform (PSMT), a minimalistic,
interpretable and biologically plausible framework for learning and predicting
natural dynamics. PSMT incorporates two layers where the first sparse coding
layer represents the input sequence as sparse coefficients over an overcomplete
dictionary and the second manifold learning layer learns a geometric embedding
space that captures topological similarity and dynamic temporal linearity in
sparse coefficients. We apply PSMT on a natural video dataset and evaluate the
reconstruction performance with respect to contextual variability, the number
of sparse coding basis functions and training samples. We then interpret the
dynamic topological organization in the embedding space. We next utilize PSMT
to predict future frames compared with two baseline methods with a static
embedding space. We demonstrate that PSMT with a dynamic embedding space can
achieve better prediction performance compared to static baselines. Our work
establishes that PSMT is an efficient unsupervised generative framework for
prediction of future visual stimuli.
- Abstract(参考訳): 自然力学の学習と予測のための最小主義的かつ解釈可能で生物学的に妥当な枠組みである予測スパース多様体変換(psmt)を提案する。
PSMTは、第1スパース符号化層が入力シーケンスを過剰辞書上のスパース係数として表現し、第2多様体学習層はスパース係数の位相的類似性と動的時間的線形性を捉える幾何学的埋め込み空間を学習する。
我々は,PSMTを自然なビデオデータセットに適用し,文脈変数,疎コーディングベース関数の数,トレーニングサンプルについて再現性能を評価する。
次に、埋め込み空間における動的位相構造を解釈する。
次に、PSMTを用いて、静的埋め込み空間を持つ2つのベースライン法と比較して、将来のフレームを予測する。
我々は,動的埋め込み空間を持つpsmtが静的ベースラインよりも優れた予測性能を実現することを実証する。
本研究は,PSMTが将来の視覚刺激の予測のための効率的な教師なし生成フレームワークであることを示す。
関連論文リスト
- Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Unsupervised Learning of Equivariant Structure from Sequences [30.974508897223124]
我々は,少なくとも3つの長さの時系列から対称性を学習するための教師なしのフレームワークを提案する。
当社のフレームワークでは,データセットの非絡み合い構造が副産物として自然に現れることを実証します。
論文 参考訳(メタデータ) (2022-10-12T07:29:18Z) - Dynamic Spatial Sparsification for Efficient Vision Transformers and
Convolutional Neural Networks [88.77951448313486]
視覚データにおける空間空間空間性を利用したモデルアクセラレーションのための新しい手法を提案する。
本稿では,冗長トークンを具現化する動的トークンスペーシフィケーションフレームワークを提案する。
提案手法は,CNNや階層型視覚変換器などの階層モデルに拡張する。
論文 参考訳(メタデータ) (2022-07-04T17:00:51Z) - Emulating Spatio-Temporal Realizations of Three-Dimensional Isotropic
Turbulence via Deep Sequence Learning Models [24.025975236316842]
最先端のディープラーニング技術を用いて3次元乱流をモデル化するために,データ駆動方式を用いる。
モデルの精度は、統計および物理に基づくメトリクスを用いて評価される。
論文 参考訳(メタデータ) (2021-12-07T03:33:39Z) - Differentiable Generalised Predictive Coding [2.868176771215219]
本稿では,脳の機能を内部生成モデルの階層的洗練とみなすニューラルプロセス理論と相反する,微分可能な力学モデルについて述べる。
我々の研究は、勾配に基づく予測符号化の既存の実装を拡張し、非線形状態パラメータ化のためのディープニューラルネットワークを統合することができる。
論文 参考訳(メタデータ) (2021-12-02T22:02:56Z) - Compressing Deep ODE-Nets using Basis Function Expansions [105.05435207079759]
重みの定式化を基底関数の線形結合を用いた連続深度関数とみなす。
この観点では、ほぼ最先端の性能を維持しながら、再トレーニングすることなく、ベースの変化によって重みを圧縮することができる。
これにより、推論時間とメモリフットプリントの両方が削減され、計算環境間の高速で厳密な適応が可能となる。
論文 参考訳(メタデータ) (2021-06-21T03:04:51Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。