論文の概要: Predictive Sparse Manifold Transform
- arxiv url: http://arxiv.org/abs/2308.14207v1
- Date: Sun, 27 Aug 2023 21:25:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 16:16:36.030827
- Title: Predictive Sparse Manifold Transform
- Title(参考訳): 予測スパース多様体変換
- Authors: Yujia Xie, Xinhui Li, Vince D. Calhoun
- Abstract要約: PSMTは、自然力学を学習し、予測するための最小限の、解釈可能で生物学的に妥当なフレームワークである。
本研究は,PSMTが将来の視覚刺激の予測のための効率的な教師なし生成フレームワークであることを示す。
- 参考スコア(独自算出の注目度): 36.03796527574897
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Predictive Sparse Manifold Transform (PSMT), a minimalistic,
interpretable and biologically plausible framework for learning and predicting
natural dynamics. PSMT incorporates two layers where the first sparse coding
layer represents the input sequence as sparse coefficients over an overcomplete
dictionary and the second manifold learning layer learns a geometric embedding
space that captures topological similarity and dynamic temporal linearity in
sparse coefficients. We apply PSMT on a natural video dataset and evaluate the
reconstruction performance with respect to contextual variability, the number
of sparse coding basis functions and training samples. We then interpret the
dynamic topological organization in the embedding space. We next utilize PSMT
to predict future frames compared with two baseline methods with a static
embedding space. We demonstrate that PSMT with a dynamic embedding space can
achieve better prediction performance compared to static baselines. Our work
establishes that PSMT is an efficient unsupervised generative framework for
prediction of future visual stimuli.
- Abstract(参考訳): 自然力学の学習と予測のための最小主義的かつ解釈可能で生物学的に妥当な枠組みである予測スパース多様体変換(psmt)を提案する。
PSMTは、第1スパース符号化層が入力シーケンスを過剰辞書上のスパース係数として表現し、第2多様体学習層はスパース係数の位相的類似性と動的時間的線形性を捉える幾何学的埋め込み空間を学習する。
我々は,PSMTを自然なビデオデータセットに適用し,文脈変数,疎コーディングベース関数の数,トレーニングサンプルについて再現性能を評価する。
次に、埋め込み空間における動的位相構造を解釈する。
次に、PSMTを用いて、静的埋め込み空間を持つ2つのベースライン法と比較して、将来のフレームを予測する。
我々は,動的埋め込み空間を持つpsmtが静的ベースラインよりも優れた予測性能を実現することを実証する。
本研究は,PSMTが将来の視覚刺激の予測のための効率的な教師なし生成フレームワークであることを示す。
関連論文リスト
- Non-asymptotic Convergence of Training Transformers for Next-token Prediction [48.9399496805422]
トランスフォーマーは、シーケンシャルなデータを扱う優れた能力のために、現代の機械学習において驚くべき成功を収めています。
本稿では, 単層変圧器のトレーニング力学の微細な非漸近解析を行う。
トレーニングされたトランスフォーマーは,データセットシフトによる非トーケン予測能力を示すことを示す。
論文 参考訳(メタデータ) (2024-09-25T20:22:06Z) - PRAGA: Prototype-aware Graph Adaptive Aggregation for Spatial Multi-modal Omics Analysis [1.1619559582563954]
空間多モードオミクス解析(PRAGA)のための空間多モードオミクス解決フレームワークPRototype-Aware Graph Adaptative Aggregationを提案する。
PRAGAは動的グラフを構築し、潜在意味関係を捉え、空間情報と特徴意味論を包括的に統合する。
学習可能なグラフ構造は、クロスモーダルな知識を学習することで摂動を損なうこともできる。
論文 参考訳(メタデータ) (2024-09-19T12:53:29Z) - KFD-NeRF: Rethinking Dynamic NeRF with Kalman Filter [49.85369344101118]
KFD-NeRFは,Kalmanフィルタに基づく効率的かつ高品質な運動再構成フレームワークと統合された,新しい動的ニューラル放射場である。
我々のキーとなる考え方は、動的放射場を、観測と予測という2つの知識源に基づいて時間的に異なる状態が推定される動的システムとしてモデル化することである。
我々のKFD-NeRFは、同等の計算時間と最先端の視線合成性能で、徹底的な訓練を施した類似または優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T05:48:24Z) - A Poisson-Gamma Dynamic Factor Model with Time-Varying Transition Dynamics [51.147876395589925]
非定常PGDSは、基礎となる遷移行列が時間とともに進化できるように提案されている。
後続シミュレーションを行うために, 完全共役かつ効率的なギブスサンプリング装置を開発した。
実験により,提案した非定常PGDSは,関連するモデルと比較して予測性能が向上することを示した。
論文 参考訳(メタデータ) (2024-02-26T04:39:01Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - Unsupervised Learning of Equivariant Structure from Sequences [30.974508897223124]
我々は,少なくとも3つの長さの時系列から対称性を学習するための教師なしのフレームワークを提案する。
当社のフレームワークでは,データセットの非絡み合い構造が副産物として自然に現れることを実証します。
論文 参考訳(メタデータ) (2022-10-12T07:29:18Z) - Differentiable Generalised Predictive Coding [2.868176771215219]
本稿では,脳の機能を内部生成モデルの階層的洗練とみなすニューラルプロセス理論と相反する,微分可能な力学モデルについて述べる。
我々の研究は、勾配に基づく予測符号化の既存の実装を拡張し、非線形状態パラメータ化のためのディープニューラルネットワークを統合することができる。
論文 参考訳(メタデータ) (2021-12-02T22:02:56Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。