論文の概要: Hierarchical-embedding autoencoder with a predictor (HEAP) as efficient architecture for learning long-term evolution of complex multi-scale physical systems
- arxiv url: http://arxiv.org/abs/2505.18857v1
- Date: Sat, 24 May 2025 20:27:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.698981
- Title: Hierarchical-embedding autoencoder with a predictor (HEAP) as efficient architecture for learning long-term evolution of complex multi-scale physical systems
- Title(参考訳): 複雑なマルチスケール物理システムの長期的進化を学習するための効率的なアーキテクチャとしての予測器(HEAP)を用いた階層埋め込みオートエンコーダ
- Authors: Alexander Khrabry, Edward Startsev, Andrew Powis, Igor Kaganovich,
- Abstract要約: システム内で動的に現れる様々なスケールの構造は、局所的にのみ相互に相互作用する。
階層的な完全畳み込みオートエンコーダは物理系の状態を一連の埋め込み層に変換する。
様々なスケールの特徴間の相互作用は、畳み込み作用素の組み合わせを用いてモデル化される。
- 参考スコア(独自算出の注目度): 41.94295877935867
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose a novel efficient architecture for learning long-term evolution in complex multi-scale physical systems which is based on the idea of separation of scales. Structures of various scales that dynamically emerge in the system interact with each other only locally. Structures of similar scale can interact directly when they are in contact and indirectly when they are parts of larger structures that interact directly. This enables modeling a multi-scale system in an efficient way, where interactions between small-scale features that are apart from each other do not need to be modeled. The hierarchical fully-convolutional autoencoder transforms the state of a physical system not just into a single embedding layer, as it is done conventionally, but into a series of embedding layers which encode structures of various scales preserving spatial information at a corresponding resolution level. Shallower layers embed smaller structures on a finer grid, while deeper layers embed larger structures on a coarser grid. The predictor advances all embedding layers in sync. Interactions between features of various scales are modeled using a combination of convolutional operators. We compare the performance of our model to variations of a conventional ResNet architecture in application to the Hasegawa-Wakatani turbulence. A multifold improvement in long-term prediction accuracy was observed for crucial statistical characteristics of this system.
- Abstract(参考訳): 本稿では,複雑な多スケール物理システムにおいて,スケールの分離という概念に基づく長期的進化を学習するための,新しい効率的なアーキテクチャを提案する。
システム内で動的に現れる様々なスケールの構造は、局所的にのみ相互に相互作用する。
類似のスケールの構造は、接触しているときに直接的に、直接相互作用するより大きな構造の一部であるときに間接的に相互作用することができる。
これにより、相互に異なる小さな機能間の相互作用をモデル化する必要がなくなるような、マルチスケールシステムの効率的なモデリングが可能になる。
階層的な完全畳み込みオートエンコーダは、従来のように物理系の状態を単一の埋め込み層だけでなく、対応する解像度レベルで空間情報を保存する様々なスケールの構造をエンコードする一連の埋め込み層へと変換する。
浅層は細い格子上に小さな構造を埋め込むが、深い層は粗い格子上に大きな構造を埋め込む。
予測器はすべての埋め込みレイヤを同期で前進させる。
様々なスケールの特徴間の相互作用は、畳み込み作用素の組み合わせを用いてモデル化される。
本稿では,従来のResNetアーキテクチャと長谷川-若谷乱流を応用したモデルの性能を比較した。
本システムの重要な統計的特性について,長期予測精度の多面的改善が観察された。
関連論文リスト
- An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - Connecting the geometry and dynamics of many-body complex systems with message passing neural operators [1.8434042562191815]
我々は,多体複雑なシステムのマルチスケール進化演算子を学習するためのスケーラブルなAIフレームワークであるROMAを紹介する。
注意機構は局所部分グラフの幾何学的表現と動的演算子の接続によるマルチスケール相互作用のモデル化に使用される。
我々はROMAフレームワークが予測タスクと効果的な動的タスク間のスケーラビリティとポジティブな転送を改善することを実証した。
論文 参考訳(メタデータ) (2025-02-21T20:04:09Z) - Orchid: Flexible and Data-Dependent Convolution for Sequence Modeling [4.190836962132713]
本稿では,従来の注意機構の2次複雑さに対処する新しいアーキテクチャであるOrchidを紹介する。
このアーキテクチャのコアには、新しいデータ依存のグローバル畳み込み層があり、入力シーケンスに条件付きカーネルを文脈的に適応させる。
言語モデリングや画像分類など,複数の領域にまたがるモデルの評価を行い,その性能と汎用性を強調した。
論文 参考訳(メタデータ) (2024-02-28T17:36:45Z) - Autoencoders for discovering manifold dimension and coordinates in data
from complex dynamical systems [0.0]
Autoencoder frameworkは暗黙の正則化と内部線形層と$L$正則化(重崩壊)を組み合わせる
このフレームワークは、状態空間モデリングや予測の応用のために自然に拡張できることを示す。
論文 参考訳(メタデータ) (2023-05-01T21:14:47Z) - Multi-Scale Semantics-Guided Neural Networks for Efficient
Skeleton-Based Human Action Recognition [140.18376685167857]
スケルトンに基づく行動認識には,単純なマルチスケールセマンティクス誘導ニューラルネットワークが提案されている。
MS-SGNは、NTU60、NTU120、SYSUデータセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-11-07T03:50:50Z) - XY Neural Networks [0.0]
XYモデルの非線形ブロックに基づいて,機械学習のための複雑な構造を構築する方法を示す。
最後のターゲットは、複雑なタスクを実行できるディープラーニングアーキテクチャを再現することである。
論文 参考訳(メタデータ) (2021-03-31T17:47:10Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Self-organization of multi-layer spiking neural networks [4.859525864236446]
発達する脳における複雑な構造の形成を可能にする重要なメカニズムは、神経活動の経時的波の出現である。
多層ニューラルネットワークをシームレスに積み重ねることのできる動的システムの形でモジュール式ツールキットを提案する。
我々のフレームワークは、多層パーセプトロンからオートエンコーダまで、幅広いアーキテクチャの自己組織化に繋がる。
論文 参考訳(メタデータ) (2020-06-12T01:44:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。