論文の概要: An Introduction to Kernel and Operator Learning Methods for
Homogenization by Self-consistent Clustering Analysis
- arxiv url: http://arxiv.org/abs/2212.00802v1
- Date: Thu, 1 Dec 2022 02:36:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 17:06:47.705472
- Title: An Introduction to Kernel and Operator Learning Methods for
Homogenization by Self-consistent Clustering Analysis
- Title(参考訳): 自己整合クラスタリング解析による均質化のためのカーネルおよびオペレータ学習法入門
- Authors: Owen Huang, Sourav Saha, Jiachen Guo, Wing Kam Liu
- Abstract要約: 本稿では,演算子学習パラダイムの数学的基盤に関する詳細な分析について述べる。
提案したカーネル演算子学習法は,グラフカーネルネットワークを用いて,マルチスケール均質化のための機械的縮小順序法を考案する。
- 参考スコア(独自算出の注目度): 0.48747801442240574
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in operator learning theory have improved our knowledge about
learning maps between infinite dimensional spaces. However, for large-scale
engineering problems such as concurrent multiscale simulation for mechanical
properties, the training cost for the current operator learning methods is very
high. The article presents a thorough analysis on the mathematical
underpinnings of the operator learning paradigm and proposes a kernel learning
method that maps between function spaces. We first provide a survey of modern
kernel and operator learning theory, as well as discuss recent results and open
problems. From there, the article presents an algorithm to how we can
analytically approximate the piecewise constant functions on R for operator
learning. This implies the potential feasibility of success of neural operators
on clustered functions. Finally, a k-means clustered domain on the basis of a
mechanistic response is considered and the Lippmann-Schwinger equation for
micro-mechanical homogenization is solved. The article briefly discusses the
mathematics of previous kernel learning methods and some preliminary results
with those methods. The proposed kernel operator learning method uses graph
kernel networks to come up with a mechanistic reduced order method for
multiscale homogenization.
- Abstract(参考訳): 作用素学習理論の最近の進歩により、無限次元空間間の学習地図に関する知識が向上した。
しかし, 機械特性の並列マルチスケールシミュレーションなどの大規模工学問題では, 現在の演算子学習手法の訓練コストが非常に高い。
本稿では,演算子学習パラダイムの数学的基盤に関する詳細な解析を行い,関数空間間をマッピングするカーネル学習法を提案する。
まず,現代のカーネルと演算子学習理論の調査を行い,最近の結果とオープン問題について考察した。
そこで本論文では,演算子学習のためのR上の部分的定数関数を解析的に近似するアルゴリズムを提案する。
これは、クラスタ化された関数上でのニューラル演算子の成功の可能性を示している。
最後に、メカニック応答に基づくk-平均クラスター領域を考察し、マイクロメカニカル均質化のためのリップマン・シュウィンガー方程式を解く。
本稿では,従来のカーネル学習手法の数学と,それらの手法による予備的な結果について概説する。
提案したカーネル演算子学習法は,グラフカーネルネットワークを用いて,マルチスケール均質化のための機械的縮小順序法を考案する。
関連論文リスト
- Operator Learning Using Random Features: A Tool for Scientific Computing [3.745868534225104]
教師付き演算子学習センターは、無限次元空間間のマップを推定するためにトレーニングデータを使用する。
本稿では,関数値のランダム特徴量法を提案する。
これは非線形問題に対して実用的な教師付き演算子学習アーキテクチャをもたらす。
論文 参考訳(メタデータ) (2024-08-12T23:10:39Z) - Kernel Neural Operators (KNOs) for Scalable, Memory-efficient, Geometrically-flexible Operator Learning [15.050519590538634]
Kernel Neural Operator (KNO)は、新しい演算子学習技術である。
ディープカーネルベースの積分演算子と、作用素の関数空間近似のための二次演算子を併用する。
KNOは、低メモリ、幾何学的に柔軟な深層演算子学習の新しいパラダイムである。
論文 参考訳(メタデータ) (2024-06-30T19:28:12Z) - Operator Learning: Algorithms and Analysis [8.305111048568737]
オペレータ学習(Operator learning)は、機械学習から、関数のバナッハ空間間の近似演算子へのアイデアの適用を指す。
このレビューは、有限次元ユークリッド空間上で定義される関数の近似におけるディープニューラルネットワークの成功に基づいて構築されたニューラル演算子に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-24T04:40:27Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Kernel Methods and their derivatives: Concept and perspectives for the
Earth system sciences [8.226445359788402]
そこで本研究では, カーネル法で学習した関数を, 複雑であるにもかかわらず直感的に解釈可能であることを示す。
具体的には、これらの関数の微分は単純な数学的定式化を持ち、計算が容易であり、多くの異なる問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-07-29T09:36:42Z) - Mat\'ern Gaussian processes on Riemannian manifolds [81.15349473870816]
ガウス過程の広く用いられるマタン類を一般化する方法を示す。
また、Mat'ern から広く用いられる2乗指数過程への一般化も拡張する。
論文 参考訳(メタデータ) (2020-06-17T21:05:42Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。