論文の概要: KHRONOS: a Kernel-Based Neural Architecture for Rapid, Resource-Efficient Scientific Computation
- arxiv url: http://arxiv.org/abs/2505.13315v1
- Date: Mon, 19 May 2025 16:29:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.732689
- Title: KHRONOS: a Kernel-Based Neural Architecture for Rapid, Resource-Efficient Scientific Computation
- Title(参考訳): KHRONOS: 迅速かつ資源効率の高い科学計算のためのカーネルベースのニューラルネットワーク
- Authors: Reza T. Batley, Sourav Saha,
- Abstract要約: KHRONOSはモデルベース、モデルフリー、モデル反転タスクのためのAIフレームワークである。
推論の複雑さは内部積に支配され、ミリ秒以下のフルフィールド予測をもたらす。
KHRONOSは、制約付きエッジコンピューティング、オンライン制御、コンピュータビジョンなどにおける新たな道を開く。
- 参考スコア(独自算出の注目度): 0.9355993154058798
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Contemporary models of high dimensional physical systems are constrained by the curse of dimensionality and a reliance on dense data. We introduce KHRONOS (Kernel Expansion Hierarchy for Reduced Order, Neural Optimized Surrogates), an AI framework for model based, model free and model inversion tasks. KHRONOS constructs continuously differentiable target fields with a hierarchical composition of per-dimension kernel expansions, which are tensorized into modes and then superposed. We evaluate KHRONOS on a canonical 2D, Poisson equation benchmark: across 16 to 512 degrees of freedom (DoFs), it obtained L2 square errors of 5e-4 down to 6e-10. This represents a 100 time gain over Kolmogorov Arnold Networks (which itself reports a 100 times improvement on MLPs/PINNs with 100 times fewer parameters) when controlling for the number of parameters. This also represents a 1e4 times improvement in L2 square error compared to standard linear FEM at comparable DoFs. Inference complexity is dominated by inner products, yielding sub-millisecond full-field predictions that scale to an arbitrary resolution. For inverse problems, KHRONOS facilitates rapid, iterative level set recovery in only a few forward evaluations, with sub-microsecond per sample latency. KHRONOS scalability, expressivity, and interpretability open new avenues in constrained edge computing, online control, computer vision, and beyond.
- Abstract(参考訳): 高次元物理系の現代モデルは、次元性の呪いと密度データへの依存によって制約される。
KHRONOS(Kernel Expansion Hierarchy for Reduced Order, Neural Optimized Surrogates)は、モデルベース、モデルフリー、モデル反転タスクのためのAIフレームワークである。
KHRONOSは、次元ごとの核展開の階層的な構成で連続的に微分可能な対象場を構築し、モードにテンソル化され、重畳される。
16~512自由度(DoFs)の正準2次元ポアソン方程式ベンチマークを用いてKHRONOSを評価し,L2平方誤差を5e-4から6e-10とした。
これはパラメータ数を制御する際に、Kolmogorov Arnold Networks(100倍のパラメータを持つMPP/PINNを100倍改善したと報告している)よりも100倍向上したことを意味する。
これはL2平方誤差の1e4倍の改善を示す。
推論の複雑さは内部積に支配され、任意の解像度にスケールするミリ秒以下のフルフィールド予測をもたらす。
逆問題に対して、KHRONOSは、サンプルレイテンシあたりのサブマイクロ秒で、数回のフォワード評価で、高速で反復的なレベルセットのリカバリを容易にする。
KHRONOSのスケーラビリティ、表現性、解釈性は、制約付きエッジコンピューティング、オンライン制御、コンピュータビジョンなどにおける新たな道を開く。
関連論文リスト
- RecConv: Efficient Recursive Convolutions for Multi-Frequency Representations [8.346566205092433]
RecConvは、小さなカーネル畳み込みを用いた多周波表現を効率的に構築する分解戦略である。
RecNeXt-M3 は RepViT-M1.1 を COCO 上で 1.9$APbox$ で上回っている。
論文 参考訳(メタデータ) (2024-12-27T13:13:52Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - SKI to go Faster: Accelerating Toeplitz Neural Networks via Asymmetric
Kernels [69.47358238222586]
Toeplitz Neural Networks (TNN) は、印象的な結果を持つ最近のシーケンスモデルである。
我々は, O(n) 計算複雑性と O(n) 相対位置エンコーダ (RPE) 多層パーセプトロン (MLP) と減衰バイアスコールの低減を目指す。
双方向モデルの場合、これはスパースと低ランクのToeplitz行列分解を動機付ける。
論文 参考訳(メタデータ) (2023-05-15T21:25:35Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Direction of Arrival Estimation of Sound Sources Using Icosahedral CNNs [10.089520556398574]
Icosahedral Convolutional Neural Network (CNN) に基づく音源の指向性(DOA)推定の新しいモデルを提案する。
このイコサヘドラルCNNは、球状回転の連続空間のよい近似を示すイコサヘドロンの60回転対称性に同値である。
問題の等式に適合するモデルを使用することで、計算コストの低減とロバスト性の向上により、他の最先端モデルよりも優れることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:52:19Z) - Error-Correcting Neural Networks for Two-Dimensional Curvature
Computation in the Level-Set Method [0.0]
本稿では,2次元曲率をレベルセット法で近似するための誤差ニューラルモデルに基づく手法を提案する。
我々の主な貢献は、需要に応じて機械学習操作を可能にする数値スキームに依存する、再設計されたハイブリッド・ソルバである。
論文 参考訳(メタデータ) (2022-01-22T05:14:40Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。