論文の概要: Stuck in the Quicksand of Numeracy, Far from AGI Summit: Evaluating
LLMs' Mathematical Competency through Ontology-guided Perturbations
- arxiv url: http://arxiv.org/abs/2401.09395v1
- Date: Wed, 17 Jan 2024 18:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:00:28.191574
- Title: Stuck in the Quicksand of Numeracy, Far from AGI Summit: Evaluating
LLMs' Mathematical Competency through Ontology-guided Perturbations
- Title(参考訳): AGI Summitから遠く離れた「数理のクイックサンド」に見る--オントロジー誘導摂動によるLLMの数学的能力の評価
- Authors: Pengfei Hong, Deepanway Ghosal, Navonil Majumder, Somak Aditya, Rada
Mihalcea, Soujanya Poria
- Abstract要約: 大規模言語モデル(LLM)は、既存の論理推論ベンチマークで顕著な結果を示した。
しかし、数学的推論のタスクにおいて、彼らの能力と頑健さの真の深さは、未解決の問題のままである。
i) 数学質問の摂動のオントロジー,(ii) 摂動の半自動的方法,(iii) 摂動された数学質問のデータセットを開発する。
- 参考スコア(独自算出の注目度): 50.68293377521595
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have showcased striking
results on existing logical reasoning benchmarks, with some models even
surpassing human performance. However, the true depth of their competencies and
robustness, in mathematical reasoning tasks, remains an open question. In
response, we develop (i) an ontology of perturbations of maths questions, (ii)
a semi-automatic method of perturbation, and (iii) a dataset of perturbed maths
questions to probe the limits of LLM capabilities in mathematical reasoning
tasks. These controlled perturbations span across multiple fine dimensions of
the structural and representational aspects of maths questions. Using GPT-4, we
generated the MORE dataset by perturbing randomly selected five seed questions
from GSM8K. This process was guided by our ontology and involved a thorough
automatic and manual filtering process, yielding a set of 216 maths problems.
We conducted comprehensive evaluation of both closed-source and open-source
LLMs on MORE. The results show a significant performance drop across all the
models against the perturbed questions. This strongly suggests that current
LLMs lack robust mathematical skills and deep reasoning abilities. This
research not only identifies multiple gaps in the capabilities of current
models, but also highlights multiple potential directions for future
development. Our dataset will be made publicly available at
https://huggingface.co/datasets/declare-lab/GSM8k_MORE.
- Abstract(参考訳): 近年のLLM(Large Language Models)の進歩は、既存の論理的推論ベンチマークにおいて顕著な結果を示しており、一部のモデルは人的性能を超えている。
しかし、数学的な推論タスクにおいて、彼らの能力と強固さの真の深さは、まだ未解決の問題である。
これに応えて、我々は
(i)数学の問題の摂動のオントロジー。
(ii)半自動摂動法、及び
(iii)数学推論タスクにおけるllm能力の限界を調査するための摂動数学問題のデータセット。
これらの制御された摂動は、数学問題の構造的および表現的側面の複数のファイン次元にまたがる。
GPT-4を用いて,GSM8Kからランダムに選択した5つの種質問を摂動することでMOREデータセットを生成した。
このプロセスはオントロジーによってガイドされ、完全な自動および手動によるフィルタリングプロセスが関与し、216の数学問題を生み出した。
我々はMORE上で,オープンソースLLMとオープンソースLLMの総合評価を行った。
結果は、すべてのモデルにおいて、混乱した質問に対する大幅なパフォーマンス低下を示します。
これは、現在のLLMには堅牢な数学的スキルと深い推論能力がないことを強く示唆している。
この研究は、現在のモデルの能力の複数のギャップを識別するだけでなく、将来の発展に向けた複数の潜在的方向性も強調する。
私たちのデータセットはhttps://huggingface.co/datasets/declare-lab/GSM8k_MOREで公開されます。
関連論文リスト
- ErrorRadar: Benchmarking Complex Mathematical Reasoning of Multimodal Large Language Models Via Error Detection [60.297079601066784]
エラー検出におけるMLLMの能力を評価するために設計された最初のベンチマークであるErrorRadarを紹介する。
ErrorRadarはエラーステップ識別とエラー分類という2つのサブタスクを評価している。
2500の高品質なマルチモーダルK-12数学問題で構成され、実世界の学生相互作用から収集される。
GPT-4oの優れた性能は、まだ人間の評価に約10%遅れているため、大きな課題が残っている。
論文 参考訳(メタデータ) (2024-10-06T14:59:09Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - MathOdyssey: Benchmarking Mathematical Problem-Solving Skills in Large Language Models Using Odyssey Math Data [20.31528845718877]
大規模言語モデル(LLM)は、非常に高度な自然言語理解を持ち、強力な問題解決能力を示した。
本稿では,新たに開発された"MathOdyssey"データセットを用いて,LLMの数学的問題解決能力について検討する。
論文 参考訳(メタデータ) (2024-06-26T13:02:35Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Assessing the Emergent Symbolic Reasoning Abilities of Llama Large Language Models [47.129504708849446]
大規模言語モデル(LLM)は、幅広いタスクにおいて印象的なパフォーマンスを達成する。
LLMは数学的推論ベンチマークにおいて創発的な能力を示す。
我々は,Llama 2ファミリーの3つのモデルについて,異なるシンボリック推論タスクで評価した。
論文 参考訳(メタデータ) (2024-06-05T12:22:43Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - Causal Reasoning and Large Language Models: Opening a New Frontier for Causality [29.433401785920065]
大規模言語モデル(LLM)は、高い確率で因果引数を生成することができる。
LLMは人間のドメインの専門家によって因果解析のセットアップの労力を節約するために使われる。
論文 参考訳(メタデータ) (2023-04-28T19:00:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。