論文の概要: Informed Equation Learning
- arxiv url: http://arxiv.org/abs/2105.06331v1
- Date: Thu, 13 May 2021 14:37:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 18:07:50.969763
- Title: Informed Equation Learning
- Title(参考訳): インフォームド方程式学習
- Authors: Matthias Werner, Andrej Junginger, Philipp Hennig, Georg Martius
- Abstract要約: 本稿では,科学と工学のための情報方程式学習システムを提案する。
許可または禁止された方程式成分に関する専門家の知識が組み込まれている。
そこで本システムは,特異点を示す原子関数を持つ方程式の学習にロバストな手法を用いる。
- 参考スコア(独自算出の注目度): 31.29253826586943
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distilling data into compact and interpretable analytic equations is one of
the goals of science. Instead, contemporary supervised machine learning methods
mostly produce unstructured and dense maps from input to output. Particularly
in deep learning, this property is owed to the generic nature of simple
standard link functions. To learn equations rather than maps, standard
non-linearities can be replaced with structured building blocks of atomic
functions. However, without strong priors on sparsity and structure,
representational complexity and numerical conditioning limit this direct
approach. To scale to realistic settings in science and engineering, we propose
an informed equation learning system. It provides a way to incorporate expert
knowledge about what are permitted or prohibited equation components, as well
as a domain-dependent structured sparsity prior. Our system then utilizes a
robust method to learn equations with atomic functions exhibiting
singularities, as e.g. logarithm and division. We demonstrate several
artificial and real-world experiments from the engineering domain, in which our
system learns interpretable models of high predictive power.
- Abstract(参考訳): データをコンパクトで解釈可能な解析方程式に蒸留することは科学の目的の1つである。
代わりに、現代の教師付き機械学習手法は、ほとんどが入力から出力までの非構造化かつ密接なマップを生成する。
特にディープラーニングでは、この性質は単純な標準リンク関数の一般的な性質に負っている。
写像ではなく方程式を学習するために、標準的な非線形性は原子関数の構造的構造ブロックに置き換えられる。
しかし、空間性や構造に強い先行がなければ、表現複雑性と数値条件付けはこの直接的なアプローチを制限する。
科学と工学の現実的な設定にスケールするために,情報方程式学習システムを提案する。
これは、許可または禁止された方程式コンポーネントに関する専門家の知識と、ドメイン依存の構造化された空間を前もって組み込む方法を提供する。
このシステムは, 特異性を示す原子関数を持つ方程式を学習するためにロバストな手法を用いる。
対数と分数。
工学領域からの人工的および実世界のいくつかの実験を実演し、高い予測力の解釈可能なモデルを学ぶ。
関連論文リスト
- Data Science Principles for Interpretable and Explainable AI [0.7581664835990121]
解釈可能でインタラクティブな機械学習は、複雑なモデルをより透明で制御しやすいものにすることを目的としている。
本論は, この分野における文献の発達から重要な原則を合成するものである。
論文 参考訳(メタデータ) (2024-05-17T05:32:27Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Discovering Interpretable Physical Models using Symbolic Regression and
Discrete Exterior Calculus [55.2480439325792]
本稿では,記号回帰(SR)と離散指数計算(DEC)を組み合わせて物理モデルの自動発見を行うフレームワークを提案する。
DECは、SRの物理問題への最先端の応用を越えている、場の理論の離散的な類似に対して、ビルディングブロックを提供する。
実験データから連続体物理の3つのモデルを再発見し,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-10-10T13:23:05Z) - Towards true discovery of the differential equations [57.089645396998506]
微分方程式探索は、解釈可能なモデルを開発するために使用される機械学習サブフィールドである。
本稿では,専門家の入力を伴わない独立方程式発見のための前提条件とツールについて検討する。
論文 参考訳(メタデータ) (2023-08-09T12:03:12Z) - Neural Integral Equations [3.087238735145305]
IEソルバを用いたデータから未知の積分演算子を学習する手法を提案する。
また,注意神経積分方程式(ANIE, Attentional Neural Integral Equations)も提示する。
論文 参考訳(メタデータ) (2022-09-30T02:32:17Z) - D-CIPHER: Discovery of Closed-form Partial Differential Equations [80.46395274587098]
D-CIPHERは人工物の測定に頑健であり、微分方程式の新しい、非常に一般的なクラスを発見できる。
さらに,D-CIPHERを効率的に探索するための新しい最適化手法であるCoLLieを設計する。
論文 参考訳(メタデータ) (2022-06-21T17:59:20Z) - NOMAD: Nonlinear Manifold Decoders for Operator Learning [17.812064311297117]
関数空間における教師付き学習は、機械学習研究の新たな領域である。
関数空間における非線形部分多様体の有限次元表現を学習できる非線形デコーダマップを備えた新しい演算子学習フレームワークであるNOMADについて述べる。
論文 参考訳(メタデータ) (2022-06-07T19:52:44Z) - Bayesian Learning to Discover Mathematical Operations in Governing
Equations of Dynamic Systems [3.1544304017740634]
本研究は,ニューラルネットワークのような階層構造を持つ数理演算ネットワーク(MathONet)を設計することにより,方程式を制御するための新しい表現を提案する。
MathONetは通常、冗長な構造を持つ超グラフと見なされる。
論文 参考訳(メタデータ) (2022-06-01T10:31:14Z) - Towards Understanding Ensemble, Knowledge Distillation and
Self-Distillation in Deep Learning [93.18238573921629]
本研究では,学習モデルのアンサンブルがテスト精度を向上させる方法と,アンサンブルの優れた性能を単一モデルに蒸留する方法について検討する。
深層学習におけるアンサンブル/知識蒸留は,従来の学習理論とは大きく異なる。
また, 自己蒸留は, アンサンブルと知識蒸留を暗黙的に組み合わせて, 試験精度を向上させることができることを示した。
論文 参考訳(メタデータ) (2020-12-17T18:34:45Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Learning ODE Models with Qualitative Structure Using Gaussian Processes [0.6882042556551611]
多くのコンテキストにおいて、明示的なデータ収集は高価であり、学習アルゴリズムはデータ効率が良くなければならない。
スパースガウス過程を用いて微分方程式のベクトル場を学習する手法を提案する。
この組み合わせにより,外挿性能と長期的挙動が大幅に向上し,計算コストの低減が図られる。
論文 参考訳(メタデータ) (2020-11-10T19:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。