論文の概要: Phaedra: Learning High-Fidelity Discrete Tokenization for the Physical Science
- arxiv url: http://arxiv.org/abs/2602.03915v1
- Date: Tue, 03 Feb 2026 17:12:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.225236
- Title: Phaedra: Learning High-Fidelity Discrete Tokenization for the Physical Science
- Title(参考訳): Phaedra: 物理科学のための高忠実離散化学習
- Authors: Levi Lingsch, Georgios Kissas, Johannes Jakubik, Siddhartha Mishra,
- Abstract要約: 物理空間およびスペクトル空間におけるPDE特性の忠実度を測定するために,画像トークンの集合の精度について検討する。
これらが細部と精密な大きさの両方を捉えるのに苦労しているという観察に基づいて、我々はPaedraを提案する。
Phaedraは、さまざまなPDEデータセットの再構成を一貫して改善することを示した。
- 参考スコア(独自算出の注目度): 16.904886444697347
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Tokens are discrete representations that allow modern deep learning to scale by transforming high-dimensional data into sequences that can be efficiently learned, generated, and generalized to new tasks. These have become foundational for image and video generation and, more recently, physical simulation. As existing tokenizers are designed for the explicit requirements of realistic visual perception of images, it is necessary to ask whether these approaches are optimal for scientific images, which exhibit a large dynamic range and require token embeddings to retain physical and spectral properties. In this work, we investigate the accuracy of a suite of image tokenizers across a range of metrics designed to measure the fidelity of PDE properties in both physical and spectral space. Based on the observation that these struggle to capture both fine details and precise magnitudes, we propose Phaedra, inspired by classical shape-gain quantization and proper orthogonal decomposition. We demonstrate that Phaedra consistently improves reconstruction across a range of PDE datasets. Additionally, our results show strong out-of-distribution generalization capabilities to three tasks of increasing complexity, namely known PDEs with different conditions, unknown PDEs, and real-world Earth observation and weather data.
- Abstract(参考訳): トークンは、高次元データを効率よく学習し、生成し、新しいタスクに一般化できるシーケンスに変換することで、現代のディープラーニングのスケールを可能にする離散表現である。
これらは画像とビデオ生成の基礎となり、最近では物理シミュレーションも行われている。
既存のトークン化器は、画像のリアルな視覚的知覚の明確な要件のために設計されているため、これらのアプローチが、大きなダイナミックレンジを示し、物理的およびスペクトル特性を維持するためにトークン埋め込みを必要とする科学画像に最適かどうかを問う必要がある。
本研究では,物理空間とスペクトル空間の両方におけるPDE特性の忠実度を測定するために,一連の画像トークン化器の精度について検討する。
これらが細部と正確な大きさの両方を捉えるのに苦労しているという観察に基づいて、古典的な形状のゲイン量子化と適切な直交分解にインスパイアされたファエドラを提案する。
Phaedraは、さまざまなPDEデータセットの再構成を一貫して改善することを示した。
さらに, この結果から, 複雑性を増大させる3つのタスク, 既知のPDE, 未知のPDE, 実世界の地球観測・気象データに対して, 分布外一般化の強い能力を示した。
関連論文リスト
- Deep Discrete Encoders: Identifiable Deep Generative Models for Rich Data with Discrete Latent Layers [13.545948734057268]
本稿では、DDE(Deep Discrete EMs)と呼ばれる、離散遅延層を持つリッチデータ型に対する解釈可能な深層生成モデルを提案する。
理論的には、DDEの透過的識別可能性条件は、潜伏層が深くなるにつれて徐々に小さくなる。
論文 参考訳(メタデータ) (2025-01-02T18:56:23Z) - Physics Meets Pixels: PDE Models in Image Processing [55.2480439325792]
部分微分方程式 (Partial Differential Equations, PDE) は、画像処理と解析のための強力なツールとして長年認識されてきた。
画像処理タスクに特化して設計された新しい物理ベースPDEモデルを提案する。
論文 参考訳(メタデータ) (2024-12-11T23:11:50Z) - Geometry Distributions [51.4061133324376]
本稿では,分布として幾何学をモデル化する新しい幾何学的データ表現を提案する。
提案手法では,新しいネットワークアーキテクチャを用いた拡散モデルを用いて表面点分布の学習を行う。
本研究では,多種多様な対象に対して質的かつ定量的に表現を評価し,その有効性を実証した。
論文 参考訳(メタデータ) (2024-11-25T04:06:48Z) - PhyMPGN: Physics-encoded Message Passing Graph Network for spatiotemporal PDE systems [31.006807854698376]
我々は物理符号化されたメッセージパッシンググラフネットワーク(PhyMPGN)という新しいグラフ学習手法を提案する。
我々は,GNNを数値積分器に組み込んで,与えられたPDEシステムに対する時間的時間的ダイナミクスの時間的行進を近似する。
PhyMPGNは、粗い非構造メッシュ上での様々なタイプの時間的ダイナミクスを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-02T08:54:18Z) - Do Graph Neural Networks Work for High Entropy Alloys? [12.002942104379986]
高エントロピー合金(HEA)は化学的な長距離秩序を欠き、現在のグラフ表現の適用性を制限する。
本稿では,HEA特性予測のための正確かつ解釈可能なGNNであるLESets機械学習モデルを紹介する。
第四紀HEAの力学特性のモデル化におけるLESetsの精度を実証する。
論文 参考訳(メタデータ) (2024-08-29T08:20:02Z) - Invariant Discovery of Features Across Multiple Length Scales: Applications in Microscopy and Autonomous Materials Characterization [3.386918190302773]
可変オートエンコーダ(VAE)は、画像データの変動の基本的な要因を特定する強力なツールとして登場した。
異なる長さスケールでサンプル化した記述子を用いて,VAEの漸進的トレーニングに基づいて,SI-VAEアプローチを導入する。
論文 参考訳(メタデータ) (2024-08-01T01:48:46Z) - GIC: Gaussian-Informed Continuum for Physical Property Identification and Simulation [60.33467489955188]
本稿では,視覚的観察を通して物理特性(システム同定)を推定する問題について検討する。
物理特性推定における幾何学的ガイダンスを容易にするために,我々は新しいハイブリッドフレームワークを提案する。
本研究では,3次元ガウス点集合としてオブジェクトを復元する動き分解に基づく動的3次元ガウスフレームワークを提案する。
抽出された物体表面に加えて、ガウスインフォームド連続体はシミュレーション中の物体マスクのレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-06-21T07:37:17Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Neural Implicit Representations for Physical Parameter Inference from a Single Video [49.766574469284485]
本稿では,外見モデルのためのニューラル暗黙表現と,物理現象をモデル化するためのニューラル常微分方程式(ODE)を組み合わせることを提案する。
提案モデルでは,大規模なトレーニングデータセットを必要とする既存のアプローチとは対照的に,単一のビデオから物理的パラメータを識別することが可能になる。
ニューラル暗示表現を使用することで、高解像度ビデオの処理とフォトリアリスティック画像の合成が可能になる。
論文 参考訳(メタデータ) (2022-04-29T11:55:35Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - Filtered-CoPhy: Unsupervised Learning of Counterfactual Physics in Pixel
Space [43.654464513994164]
高次元データ(画像,ビデオ)における因果関係の学習方法を提案する。
我々の手法は、いかなる根拠となる真実の位置や他の対象物やシーン特性の知識や監督も必要としない。
我々は,画素空間における予測のための新しい挑戦的かつ慎重に設計された反実的ベンチマークを導入する。
論文 参考訳(メタデータ) (2022-02-01T12:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。