論文の概要: Symbolic integration by integrating learning models with different
strengths and weaknesses
- arxiv url: http://arxiv.org/abs/2103.05497v1
- Date: Tue, 9 Mar 2021 15:46:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:44:26.941970
- Title: Symbolic integration by integrating learning models with different
strengths and weaknesses
- Title(参考訳): 強みと弱みの異なる学習モデルの統合による記号統合
- Authors: Hazumi Kubota, Yuta Tokuoka, Takahiro G. Yamada and Akira Funahashi
- Abstract要約: 積分は、数学だけでなく、他の幅広い分野においても不可欠である。
深層学習法が最近開発され,これまでコンピュータに組み込まれていなかった数学的関数を統合できることが示されている。
本研究では,数理情報を考慮した学習モデルを調整し,数値演算の順序をより堅牢に学習する幅広い学習モデルを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Integration is indispensable, not only in mathematics, but also in a wide
range of other fields. A deep learning method has recently been developed and
shown to be capable of integrating mathematical functions that could not
previously be integrated on a computer. However, that method treats integration
as equivalent to natural language translation and does not reflect mathematical
information. In this study, we adjusted the learning model to take mathematical
information into account and developed a wide range of learning models that
learn the order of numerical operations more robustly. In this way, we achieved
a 98.80% correct answer rate with symbolic integration, a higher rate than that
of any existing method. We judged the correctness of the integration based on
whether the derivative of the primitive function was consistent with the
integrand. By building an integrated model based on this strategy, we achieved
a 99.79% rate of correct answers with symbolic integration.
- Abstract(参考訳): 積分は、数学だけでなく、他の幅広い分野においても不可欠である。
深層学習法が最近開発され,これまでコンピュータに組み込まれていなかった数学的関数を統合できることが示されている。
しかし、この方法は統合を自然言語翻訳と同等のものとして扱い、数学的情報を反映しない。
本研究では,数理情報を考慮した学習モデルを調整し,数値演算の順序をより堅牢に学習する幅広い学習モデルを開発した。
この方法では、98.80%の正答率とシンボリック統合を達成し、既存の方法よりも高い率できました。
プリミティブ関数の微分が積分と一致しているかに基づいて積分の正しさを判定した。
この戦略に基づく統合モデルを構築することで、シンボリック統合による正解率99.79%を達成した。
関連論文リスト
- Refining Integration-by-Parts Reduction of Feynman Integrals with Machine Learning [0.0]
ファインマン積分の積分による分解は、理論粒子や重力波物理学において頻繁にボトルネックとなる。
改良されたアイデンティティを見つけるための機械学習手法について検討する。
我々は,大言語モデルによるコード生成に基づく遺伝的プログラミングの亜種である funsearch を用いて,可能なアプローチを探索する。
論文 参考訳(メタデータ) (2025-02-07T17:48:42Z) - On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
複数モーダルな)自己教師付き表現学習のための連続領域における識別確率モデル問題について検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - AlphaIntegrator: Transformer Action Search for Symbolic Integration Proofs [3.618534280726541]
本稿では, ステップバイステップの数学的統合のための, 最初の正解学習システムを提案する。
鍵となる考え方は、正しい数学的統合ルールの探索を導くGPTトランスフォーマーモデルで表されるポリシーを学ぶことである。
本稿では,数式に対する公理的に正しい作用を持つシンボリックエンジンと,ステップバイステップ統合のための最初のデータセットを紹介する。
論文 参考訳(メタデータ) (2024-10-03T16:50:30Z) - Neural Control Variates with Automatic Integration [49.91408797261987]
本稿では,任意のニューラルネットワークアーキテクチャから学習可能なパラメトリック制御関数を構築するための新しい手法を提案する。
我々はこのネットワークを用いて積分器の反微分を近似する。
我々はウォーク・オン・スフィア・アルゴリズムを用いて偏微分方程式を解くために本手法を適用した。
論文 参考訳(メタデータ) (2024-09-23T06:04:28Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - Integrating Semantics and Neighborhood Information with Graph-Driven
Generative Models for Document Retrieval [51.823187647843945]
本稿では,周辺情報をグラフ誘導ガウス分布でエンコードし,その2種類の情報をグラフ駆動生成モデルと統合することを提案する。
この近似の下では、トレーニング対象がシングルトンまたはペアワイズ文書のみを含む用語に分解可能であることを証明し、モデルが非関連文書と同じくらい効率的にトレーニングできることを示す。
論文 参考訳(メタデータ) (2021-05-27T11:29:03Z) - Learning Runge-Kutta Integration Schemes for ODE Simulation and
Identification [35.877707234293624]
統合関連コスト関数を最小化する統合スキームを学ぶための新しいフレームワークを提案する。
非線形方程式に対する学習に基づくアプローチの妥当性を実証する。
論文 参考訳(メタデータ) (2021-05-11T13:02:20Z) - Personalized Algorithm Generation: A Case Study in Meta-Learning ODE
Integrators [6.457555233038933]
科学計算における数値アルゴリズムのメタラーニングに関する研究
初期値問題の解法を自動的に学習する機械学習手法を開発した。
論文 参考訳(メタデータ) (2021-05-04T05:42:33Z) - AutoInt: Automatic Integration for Fast Neural Volume Rendering [51.46232518888791]
暗黙的ニューラル表現ネットワークを用いて、積分に対する効率的でクローズドな解を学習するための新しいフレームワークを提案する。
我々は,高速なニューラルボリュームレンダリングを実現するために,フォトリアリスティックな要件を10倍以上に改善したことを示す。
論文 参考訳(メタデータ) (2020-12-03T05:46:10Z) - Information Theoretic Meta Learning with Gaussian Processes [74.54485310507336]
情報理論の概念,すなわち相互情報と情報のボトルネックを用いてメタ学習を定式化する。
相互情報に対する変分近似を用いることで、メタ学習のための汎用的かつトラクタブルな枠組みを導出する。
論文 参考訳(メタデータ) (2020-09-07T16:47:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。