論文の概要: The Weak Form Is Stronger Than You Think
- arxiv url: http://arxiv.org/abs/2409.06751v1
- Date: Tue, 10 Sep 2024 13:59:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 17:19:05.402641
- Title: The Weak Form Is Stronger Than You Think
- Title(参考訳): 弱い形は思ったより強い
- Authors: Daniel A. Messenger, April Tran, Vanja Dukic, David M. Bortz,
- Abstract要約: 弱い形式はよく研究され、広く利用されている数学的ツールである。
方程式学習、パラメータ推定、粗粒化の弱い形態の最近の進歩は、驚くほどのノイズ堅牢性、精度、計算効率をもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The weak form is a ubiquitous, well-studied, and widely-utilized mathematical tool in modern computational and applied mathematics. In this work we provide a survey of both the history and recent developments for several fields in which the weak form can play a critical role. In particular, we highlight several recent advances in weak form versions of equation learning, parameter estimation, and coarse graining, which offer surprising noise robustness, accuracy, and computational efficiency. We note that this manuscript is a companion piece to our October 2024 SIAM News article of the same name. Here we provide more detailed explanations of mathematical developments as well as a more complete list of references. Lastly, we note that the software with which to reproduce the results in this manuscript is also available on our group's GitHub website https://github.com/MathBioCU .
- Abstract(参考訳): 弱い形式は、現代の計算および応用数学において、ユビキタスでよく研究され、広く利用されている数学的ツールである。
この研究では、弱形が重要な役割を果たすいくつかの分野における、歴史と最近の発展の両方について調査する。
特に, 方程式学習, パラメータ推定, 粗粒化の弱形式化における最近の進歩に注目し, 驚くべき雑音の頑健性, 精度, 計算効率を提供する。
この写本は、2024年10月のSIAM Newsの記事の同名の部分である。
ここでは、数学的発展に関するより詳細な説明と、より完全な参照リストを提供する。
最後に、この原稿で結果を再現するソフトウェアは、私たちのグループのGitHubウェブサイト https://github.com/MathBioCUでも利用可能である。
関連論文リスト
- Alchemy: Amplifying Theorem-Proving Capability through Symbolic Mutation [71.32761934724867]
この研究は、記号的突然変異を通じて形式的な定理を構成するデータ合成のフレームワークであるAlchemyを提案する。
マドリブにおける各候補定理について、書き直しや適用に使用できるすべてのイベーシブルな定理を同定する。
その結果、マドリブの定理の数は110kから6Mへと桁違いに増加する。
論文 参考訳(メタデータ) (2024-10-21T08:04:21Z) - MathCoder2: Better Math Reasoning from Continued Pretraining on Model-translated Mathematical Code [38.127313175508746]
本稿では, 継続事前学習のための推論ステップを伴って, 数学的コードを生成する新しい手法を提案する。
私たちのアプローチは、高品質な数学的継続事前学習データセットの構築から始まります。
生成されたコードを推論ステップ毎に適用すると、ペアの自然言語推論ステップとその対応するコードからなるデータが得られる。
論文 参考訳(メタデータ) (2024-10-10T17:58:40Z) - Automated conjecturing in mathematics with \emph{TxGraffiti} [0.0]
emphTxGraffitiは、予想を生成するプロセスを自動化するために開発されたデータ駆動型コンピュータプログラムである。
本稿では,emphTxGraffitiプログラムのルーツを含む,emphTxGraffitiの設計と基本原理について述べる。
論文 参考訳(メタデータ) (2024-09-28T15:06:31Z) - Artificial intelligence and machine learning generated conjectures with TxGraffiti [0.0]
TxGraffitiが実装した機械学習とテクニックについて概説する。
また、グラフ理論の予想を探求したい人なら誰でも利用できる新しいオンライン版も発表します。
論文 参考訳(メタデータ) (2024-07-03T01:03:09Z) - LLM Critics Help Catch Bugs in Mathematics: Towards a Better Mathematical Verifier with Natural Language Feedback [71.95402654982095]
本研究では,自然言語フィードバック型検証器Math-Minosを提案する。
実験の結果,少量の自然言語フィードバックが検証器の性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-06-20T06:42:27Z) - MathBench: Evaluating the Theory and Application Proficiency of LLMs with a Hierarchical Mathematics Benchmark [82.64129627675123]
MathBenchは、大規模言語モデルの数学的能力を厳格に評価する新しいベンチマークである。
MathBenchは幅広い数学の分野にまたがっており、理論的な理解と実践的な問題解決のスキルの両方を詳細に評価している。
論文 参考訳(メタデータ) (2024-05-20T17:52:29Z) - InternLM-Math: Open Math Large Language Models Toward Verifiable Reasoning [98.53491178426492]
InternLM2から事前学習を継続するILMs InternLM-Mathをオープンソースとして公開する。
我々は、連鎖推論、報酬モデリング、形式推論、データ拡張、コードインタプリタを、統一されたSeq2seqフォーマットで統一する。
我々の事前学習モデルは、微調整なしでMiniF2Fテストセットで30.3を達成する。
論文 参考訳(メタデータ) (2024-02-09T11:22:08Z) - Dynamic Prompt Learning via Policy Gradient for Semi-structured
Mathematical Reasoning [150.17907456113537]
数学的な推論を必要とする38,431のグレードレベルの問題を含む新しいデータセットであるTabular Math Word Problems (TabMWP)を提案する。
我々は,GPT-3モデルを含む,TabMWP上での事前学習モデルの評価を行った。
本稿では、ポリシー勾配を利用して、少量のトレーニングデータからコンテキスト内サンプルを選択する新しいアプローチ、PromptPGを提案する。
論文 参考訳(メタデータ) (2022-09-29T08:01:04Z) - Self-Supervised Pretraining of Graph Neural Network for the Retrieval of
Related Mathematical Expressions in Scientific Articles [8.942112181408156]
本稿では,機械学習に基づく数学的表現の検索手法を提案する。
埋め込み学習と自己教師型学習を組み合わせた教師なし表現学習タスクを設計する。
arXiv.orgで発行された90,000以上の出版物から、9900万以上の数学的表現を持つ巨大なデータセットを収集します。
論文 参考訳(メタデータ) (2022-08-22T12:11:30Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Learning to Match Mathematical Statements with Proofs [37.38969121408295]
このタスクは、研究レベルの数学的テキストの処理を改善するために設計されている。
我々は180k以上の文対からなるタスク用のデータセットをリリースする。
課題をグローバルに検討し,重み付き二部マッチングアルゴリズムを用いることで,課題に対処できることが示唆された。
論文 参考訳(メタデータ) (2021-02-03T15:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。