論文の概要: ArGEnT: Arbitrary Geometry-encoded Transformer for Operator Learning
- arxiv url: http://arxiv.org/abs/2602.11626v1
- Date: Thu, 12 Feb 2026 06:22:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.669015
- Title: ArGEnT: Arbitrary Geometry-encoded Transformer for Operator Learning
- Title(参考訳): ArGEnT: 演算子学習のための任意幾何符号化変換器
- Authors: Wenqian Chen, Yucheng Fu, Michael Penwarden, Pratanu Roy, Panos Stinis,
- Abstract要約: 本稿では、任意のドメイン上での演算子学習のための幾何認識型アテンションベースアーキテクチャであるArbitrary Geometry-encoded Transformer (ArGEnT)を提案する。
柔軟な幾何符号化と演算子学習機能を組み合わせることで、ArGEnTは複雑な物理システムの最適化、不確実性、データ駆動モデリングのためのスケーラブルな代理モデリングフレームワークを提供する。
- 参考スコア(独自算出の注目度): 2.757490632589873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning solution operators for systems with complex, varying geometries and parametric physical settings is a central challenge in scientific machine learning. In many-query regimes such as design optimization, control and inverse problems, surrogate modeling must generalize across geometries while allowing flexible evaluation at arbitrary spatial locations. In this work, we propose Arbitrary Geometry-encoded Transformer (ArGEnT), a geometry-aware attention-based architecture for operator learning on arbitrary domains. ArGEnT employs Transformer attention mechanisms to encode geometric information directly from point-cloud representations with three variants-self-attention, cross-attention, and hybrid-attention-that incorporates different strategies for incorporating geometric features. By integrating ArGEnT into DeepONet as the trunk network, we develop a surrogate modeling framework capable of learning operator mappings that depend on both geometric and non-geometric inputs without the need to explicitly parametrize geometry as a branch network input. Evaluation on benchmark problems spanning fluid dynamics, solid mechanics and electrochemical systems, we demonstrate significantly improved prediction accuracy and generalization performance compared with the standard DeepONet and other existing geometry-aware saurrogates. In particular, the cross-attention transformer variant enables accurate geometry-conditioned predictions with reduced reliance on signed distance functions. By combining flexible geometry encoding with operator-learning capabilities, ArGEnT provides a scalable surrogate modeling framework for optimization, uncertainty quantification, and data-driven modeling of complex physical systems.
- Abstract(参考訳): 複雑で多様なジオメトリとパラメトリックな物理設定を持つシステムの学習ソリューション演算子は、科学機械学習における中心的な課題である。
設計最適化、制御、逆問題などの多くのクエリーシステムでは、代理モデリングは任意の空間位置で柔軟な評価を可能にしながら、ジオメトリー全体にわたって一般化されなければならない。
本研究では、任意のドメイン上での演算子学習のための幾何認識型アテンションベースのアーキテクチャであるArbitrary Geometry-encoded Transformer (ArGEnT)を提案する。
ArGEnTはTransformer attention(トランスフォーマー・アテンション・メカニズム)を使用して、幾何学的特徴を取り入れるための異なる戦略を組み込んだ3つの変種(自己注意、相互注意、ハイブリッド注意)で、ポイントクラウド表現から直接幾何学的情報を符号化する。
本稿では,ArGEnTをトランクネットワークとして統合することにより,幾何学的および非幾何学的入力に依存する演算子マッピングを,分岐ネットワーク入力としての幾何を明示的にパラメータ化することなく学習可能な代理モデリングフレームワークを開発する。
流体力学, 固体力学, 電気化学システムにまたがるベンチマーク問題の評価を行い, 従来のDeepONetや既存の幾何型サーロゲートと比較して予測精度と一般化性能が有意に向上したことを示した。
特に、クロスアテンション変圧器は、符号付き距離関数に依存しない正確な幾何条件付き予測を可能にする。
柔軟な幾何符号化と演算子学習機能を組み合わせることで、ArGEnTは複雑な物理システムの最適化、不確実性定量化、データ駆動モデリングのためのスケーラブルな代理モデリングフレームワークを提供する。
関連論文リスト
- PGOT: A Physics-Geometry Operator Transformer for Complex PDEs [15.319296758227857]
物理幾何学演算子変換器(PGOT)を提案する。
PGOTは4つの標準ベンチマークで一貫した最先端性能を実現し、エアフォイルやカーデザインを含む大規模産業タスクに優れる。
論文 参考訳(メタデータ) (2025-12-29T04:05:01Z) - TIGeR: Tool-Integrated Geometric Reasoning in Vision-Language Models for Robotics [53.442362491589726]
本稿では、視覚言語モデル(VLM)を幾何学コンピュータに変換する新しいフレームワークであるTIGeR(Tool-Integrated Geometric Reasoning)を提案する。
TIGeRは、ニューラルネットワーク内で複雑な幾何学的操作を内部化しようとするのではなく、幾何学的推論要求を認識するためにモデルに権限を与える。
TIGeRは、実世界のロボット操作タスクにおいて、センチメートルレベルの精度を示しながら、幾何学的推論ベンチマーク上でSOTA性能を達成することを示す。
論文 参考訳(メタデータ) (2025-10-08T16:20:23Z) - Geometry-Informed Neural Operator Transformer [0.8906214436849201]
この研究は、Geometry-Informed Neural Operator Transformer (GINOT)を導入し、トランスフォーマーアーキテクチャとニューラルオペレータフレームワークを統合し、任意のジオメトリの前方予測を可能にする。
GINOTの性能は複数の挑戦的なデータセットで検証され、複雑で任意の2Dおよび3Dジオメトリに対して高い精度と強力な一般化能力を示す。
論文 参考訳(メタデータ) (2025-04-28T03:39:27Z) - Bridging Geometric States via Geometric Diffusion Bridge [79.60212414973002]
本稿では,初期および対象の幾何状態を正確にブリッジする新しい生成モデリングフレームワークであるGeometric Diffusion Bridge (GDB)を紹介する。
GDBは、幾何学的状態の接続のためにDoobの$h$-transformの修正版から派生した同変拡散ブリッジを使用している。
我々はGDBが既存の最先端のアプローチを超越し、幾何学的状態を正確にブリッジするための新しい経路を開くことを示す。
論文 参考訳(メタデータ) (2024-10-31T17:59:53Z) - GTA: A Geometry-Aware Attention Mechanism for Multi-View Transformers [63.41460219156508]
既存の位置符号化方式は3次元視覚タスクに最適であると主張する。
トークンの幾何学的構造を相対変換として符号化する幾何学的注意機構を提案する。
我々は、Geometric Transform Attention (GTA) と呼ばれる、最先端のトランスフォーマーベースNVSモデルの学習効率と性能を向上させることに留意している。
論文 参考訳(メタデータ) (2023-10-16T13:16:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。