論文の概要: Spline Deformation Field
- arxiv url: http://arxiv.org/abs/2507.07521v1
- Date: Thu, 10 Jul 2025 08:11:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.320531
- Title: Spline Deformation Field
- Title(参考訳): スプライン変形場
- Authors: Mingyang Song, Yang Zhang, Marko Mihajlovic, Siyu Tang, Markus Gross, Tunç Ozan Aydın,
- Abstract要約: 帰納バイアスは、不適切なシナリオにおける標準空間コヒーレンスを妨げる。
本稿では,従来の結合技術に取って代わる,新しい低ランク空間符号化手法を提案する。
最先端の手法と比較して、競争力のある動的再構成品質を実現する。
- 参考スコア(独自算出の注目度): 21.755382164519776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trajectory modeling of dense points usually employs implicit deformation fields, represented as neural networks that map coordinates to relate canonical spatial positions to temporal offsets. However, the inductive biases inherent in neural networks can hinder spatial coherence in ill-posed scenarios. Current methods focus either on enhancing encoding strategies for deformation fields, often resulting in opaque and less intuitive models, or adopt explicit techniques like linear blend skinning, which rely on heuristic-based node initialization. Additionally, the potential of implicit representations for interpolating sparse temporal signals remains under-explored. To address these challenges, we propose a spline-based trajectory representation, where the number of knots explicitly determines the degrees of freedom. This approach enables efficient analytical derivation of velocities, preserving spatial coherence and accelerations, while mitigating temporal fluctuations. To model knot characteristics in both spatial and temporal domains, we introduce a novel low-rank time-variant spatial encoding, replacing conventional coupled spatiotemporal techniques. Our method demonstrates superior performance in temporal interpolation for fitting continuous fields with sparse inputs. Furthermore, it achieves competitive dynamic scene reconstruction quality compared to state-of-the-art methods while enhancing motion coherence without relying on linear blend skinning or as-rigid-as-possible constraints.
- Abstract(参考訳): 密度点の軌道モデリングは通常暗黙の変形場を使用し、座標を時間オフセットに関連付けるために座標をマッピングするニューラルネットワークとして表現される。
しかし、ニューラルネットワークに固有の帰納バイアスは、不適切なシナリオにおける空間的コヒーレンスを妨げる可能性がある。
現在の手法は、変形場の符号化戦略の強化に重点を置いており、しばしば不透明で直感的なモデルをもたらすか、あるいはヒューリスティックなノード初期化に依存する線形ブレンドスキンのような明示的な手法を採用する。
さらに、スパース時相信号を補間するための暗黙の表現のポテンシャルは、未探索のままである。
これらの課題に対処するために,各結び目の数が自由度を明示的に決定するスプラインに基づく軌道表現を提案する。
このアプローチは、時間的変動を緩和しつつ、空間的コヒーレンスと加速度を保ちながら、速度の効率的な解析的導出を可能にする。
時空間領域と時空間領域の両方で結び目特性をモデル化するために,従来の時空間法に代わる,新しい低ランク時変空間符号化を導入する。
本手法は, 連続場にスパース入力を施す場合の時間補間において, 優れた性能を示す。
さらに、線形ブレンドスキンや厳密な制約に頼ることなく、動きコヒーレンスを高めつつ、最先端の手法と比較して、競争力のある動的シーン再構築品質を実現する。
関連論文リスト
- 4Deform: Neural Surface Deformation for Robust Shape Interpolation [47.47045870313048]
本研究では,非構造化データにおける非剛性変形形状間の中間形状を現実的に生成するための新しい手法を開発した。
本手法はユークリッド空間における連続速度場を学習し,訓練中に中間形状の監視を必要としない。
提案手法は, 4次元Kinectシークエンスアップサンプリングや実世界の高分解能メッシュ変形などの新しいアプリケーションを実現する。
論文 参考訳(メタデータ) (2025-02-27T15:47:49Z) - Linear Attention is Enough in Spatial-Temporal Forecasting [0.0]
本稿では,道路ネットワークにおけるノードを独立した時空間トークンとして扱うことを提案する。
次に、それらをバニラ変換器に入力して、複雑な時空間パターンを学習します。
我々のコードは、手頃な計算コストで最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-08-17T10:06:50Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - Smooth and Sparse Latent Dynamics in Operator Learning with Jerk
Regularization [1.621267003497711]
本稿では,圧縮された潜在空間の学習にジャッジ正規化を組み込んだ連続演算子学習フレームワークを提案する。
このフレームワークは、任意の所望の空間的あるいは時間的解像度での推論を可能にする。
この枠組みの有効性は、ナヴィエ・ストークス方程式によって支配される二次元非定常流問題によって証明される。
論文 参考訳(メタデータ) (2024-02-23T22:38:45Z) - Learning optimal integration of spatial and temporal information in
noisy chemotaxis [0.0]
本研究では,空間的勾配推定による遊走速度と時間的推定による遊走速度の境界について検討する。
我々は、繰り返しニューラルネットワークによる協調的遊走政策をパラメータ化し、遊走細胞の最小理論モデルを用いて評価する。
政権間の移行は継続しており、移行地域では統合戦略が優れたことが判明した。
論文 参考訳(メタデータ) (2023-10-16T15:50:23Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - Implicit Neural Spatial Representations for Time-dependent PDEs [29.404161110513616]
Inlicit Neural Spatial Representation (INSR) は空間依存ベクトル場の効果的な表現として登場した。
本研究は,INSRを用いた時間依存型PDEの解法について検討する。
論文 参考訳(メタデータ) (2022-09-30T22:46:40Z) - Adaptive Latent Space Tuning for Non-Stationary Distributions [62.997667081978825]
本稿では,ディープエンコーダ・デコーダ方式cnnの低次元潜在空間の適応チューニング法を提案する。
粒子加速器における時間変動荷電粒子ビームの特性を予測するためのアプローチを実証する。
論文 参考訳(メタデータ) (2021-05-08T03:50:45Z) - Conditional Local Filters with Explainers for Spatio-Temporal
Forecasting [27.62110162024104]
空間依存を捉えるために,新しいグラフに基づく有向畳み込みを提案する。
このフィルタは、時間ダイナミクスをモデル化するRecurrent Neural Network (RNN)アーキテクチャに埋め込まれている。
本手法は,道路網交通流,地表面温度と風速,病原体拡散データを含む実世界のデータセット上で評価される。
論文 参考訳(メタデータ) (2021-01-04T14:22:11Z) - Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow
Forecasting [35.072979313851235]
交通流の空間的-時間的データ予測は複雑な空間的依存性と道路間の時間的パターンの動的傾向のために難しい課題である。
既存のフレームワークは通常、与えられた空間隣接グラフと、空間的および時間的相関をモデル化する洗練されたメカニズムを利用する。
本稿では,交通流予測のための空間時間融合グラフニューラルネットワーク(STFGNN)を提案する。
論文 参考訳(メタデータ) (2020-12-15T14:03:17Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。