論文の概要: Autoencoders in Function Space
- arxiv url: http://arxiv.org/abs/2408.01362v2
- Date: Sun, 05 Jan 2025 17:14:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:04:34.540323
- Title: Autoencoders in Function Space
- Title(参考訳): 関数空間におけるオートエンコーダ
- Authors: Justin Bunker, Mark Girolami, Hefin Lambley, Andrew M. Stuart, T. J. Sullivan,
- Abstract要約: オートエンコーダは、元の決定論的形式と変分的定式化(VAE)の両方に広く応用されている。
本稿では,自動エンコーダ(FAE)と変分自動エンコーダ(FVAE)の関数空間バージョンを導入し,解析し,展開する。
- 参考スコア(独自算出の注目度): 5.558412940088621
- License:
- Abstract: Autoencoders have found widespread application in both their original deterministic form and in their variational formulation (VAEs). In scientific applications and in image processing it is often of interest to consider data that are viewed as functions; while discretisation (of differential equations arising in the sciences) or pixellation (of images) renders problems finite dimensional in practice, conceiving first of algorithms that operate on functions, and only then discretising or pixellating, leads to better algorithms that smoothly operate between resolutions. In this paper function-space versions of the autoencoder (FAE) and variational autoencoder (FVAE) are introduced, analysed, and deployed. Well-definedness of the objective governing VAEs is a subtle issue, particularly in function space, limiting applicability. For the FVAE objective to be well defined requires compatibility of the data distribution with the chosen generative model; this can be achieved, for example, when the data arise from a stochastic differential equation, but is generally restrictive. The FAE objective, on the other hand, is well defined in many situations where FVAE fails to be. Pairing the FVAE and FAE objectives with neural operator architectures that can be evaluated on any mesh enables new applications of autoencoders to inpainting, superresolution, and generative modelling of scientific data.
- Abstract(参考訳): オートエンコーダは、元の決定論的形式と変分的定式化(VAE)の両方に広く応用されている。
科学的応用や画像処理では、しばしば関数と見なされるデータを考えることに関心がある; 離散化(科学で生じる微分方程式の)やピクセル化(画像の)は、実際には有限次元の問題をレンダリングするが、関数で動くアルゴリズムの第一に着目し、次に認識またはピクセル化することで、分解の間を円滑に操作するアルゴリズムがより良くなる。
本稿では,自動エンコーダ(FAE)と変分自動エンコーダ(FVAE)の関数空間バージョンを導入し,解析し,展開する。
VAEの目的性は微妙な問題であり、特に関数空間では適用性を制限する。
FVAEの目的を適切に定義するためには、選択された生成モデルとデータ分布の整合性が必要である。
一方、FAEの目的は、FVAEが失敗する多くの状況において明確に定義されている。
任意のメッシュで評価可能なニューラル演算子アーキテクチャによるFVAEとFAEの目標のペアリングにより、オートエンコーダの新たな応用により、科学データのインペイント、超解像化、生成モデリングが可能になる。
関連論文リスト
- Disentangled Latent Spaces for Reduced Order Models using Deterministic Autoencoders [0.0]
潜伏変数をアンタングル化し、結果のモードを分析することで、より解釈可能性を得ることができる。
確率的オートエンコーダ (beta$-VAEs) は計算流体力学においてよく用いられる。
本研究では,非確率的オートエンコーダ手法を用いて,競合的な結果が得られることを示す。
論文 参考訳(メタデータ) (2025-02-20T16:09:57Z) - Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Variational Autoencoding Neural Operators [17.812064311297117]
関数型データによる教師なし学習は、コンピュータビジョン、気候モデリング、物理システムへの応用を含む機械学習研究の新たなパラダイムである。
本稿では,大規模な演算子学習アーキテクチャを変分オートエンコーダとして機能させる汎用戦略として,変分オートエンコードニューラル演算子(VANO)を提案する。
論文 参考訳(メタデータ) (2023-02-20T22:34:43Z) - Score-based Diffusion Models in Function Space [137.70916238028306]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
この研究は、関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)と呼ばれる数学的に厳密なフレームワークを導入する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Task-Oriented Over-the-Air Computation for Multi-Device Edge AI [57.50247872182593]
エッジAIをサポートするための6Gネットワークは、AIタスクの効率的かつ効率的な実行に焦点を当てたタスク指向のテクニックを備えている。
本稿では,マルチデバイススプリット推論システムにおけるタスク指向オーバー・ザ・エア計算(AirComp)方式を提案する。
論文 参考訳(メタデータ) (2022-11-02T16:35:14Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - The Random Feature Model for Input-Output Maps between Banach Spaces [6.282068591820945]
ランダム特徴モデルは、カーネルまたは回帰法に対するパラメトリック近似である。
本稿では、入力バナッハ空間を出力バナッハ空間にマッピングする演算子のためのデータ駆動サロゲートとしてランダム特徴モデルを使用する手法を提案する。
論文 参考訳(メタデータ) (2020-05-20T17:41:40Z) - Solving inverse-PDE problems with physics-aware neural networks [0.0]
偏微分方程式の逆問題における未知の場を見つけるための新しい枠組みを提案する。
我々は,ディープニューラルネットワークの高表現性を,既存の数値アルゴリズムの精度と信頼性とを融合した普遍関数推定器とする。
論文 参考訳(メタデータ) (2020-01-10T18:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。