論文の概要: Language Models Understand Numbers, at Least Partially
- arxiv url: http://arxiv.org/abs/2401.03735v2
- Date: Sun, 4 Feb 2024 05:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 03:17:01.193072
- Title: Language Models Understand Numbers, at Least Partially
- Title(参考訳): 言語モデルは、少なくとも部分的には数字を理解する
- Authors: Fangwei Zhu, Damai Dai, Zhifang Sui
- Abstract要約: 大規模言語モデル(LLM)は様々なタスクにおいて顕著な能力を示してきたが、その内部メカニズムは数学的な問題での使用を妨げる。
言語モデルが数学の基本要素である数を理解するかどうかを考察する。
予備的な研究は、LLMが数の部分的な理解を示し、将来のモデルの数学的能力に関する研究の洞察を提供することを示唆している。
- 参考スコア(独自算出の注目度): 32.45872420139116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have exhibited impressive competence in various
tasks, but their opaque internal mechanisms hinder their use in mathematical
problems. In this paper, we study a fundamental question: whether language
models understand numbers, a basic element in math. Based on an assumption that
LLMs should be capable of compressing numbers in their hidden states to solve
mathematical problems, we construct a synthetic dataset comprising addition
problems and utilize linear probes to read out input numbers from the hidden
states. Experimental results support the existence of compressed numbers in
LLMs. However, it is difficult to precisely reconstruct the original numbers,
indicating that the compression process may not be lossless. Further
experiments show that LLMs can utilize encoded numbers to perform arithmetic
computations, and the computational ability scales up with the model size. Our
preliminary research suggests that LLMs exhibit a partial understanding of
numbers, offering insights for future investigations about the models'
mathematical capability.
- Abstract(参考訳): 大規模言語モデル(LLM)は様々なタスクにおいて顕著な能力を示してきたが、その不透明な内部メカニズムは数学的な問題での使用を妨げる。
本稿では,数学の基本要素である数を言語モデルが理解するかどうかという基本的な問題について検討する。
本研究では,LLMが隠れ状態の数値を圧縮して数学的問題を解決できるという仮定に基づいて,付加問題を含む合成データセットを構築し,線形プローブを用いて隠れ状態から入力番号を読み取る。
LLMにおける圧縮数の存在を支持する実験結果が得られた。
しかし,原数を正確に再構成することは困難であり,圧縮過程が損なわれない可能性がある。
さらなる実験により、LLMはエンコードされた数を使って算術演算を行え、計算能力はモデルのサイズに匹敵することを示した。
我々の予備的な研究は、LLMが数の部分的理解を示し、将来のモデルの数学的能力に関する知見を提供することを示唆している。
関連論文リスト
- The Geometry of Numerical Reasoning: Language Models Compare Numeric Properties in Linear Subspaces [22.31258265337828]
本稿では,大規模言語モデル(LLM)が論理比較問題に答える際に,埋め込み空間の低次元部分空間に符号化された数値属性を利用するかどうかを検討する。
まず,これらの部分空間を最小二乗回帰を用いて同定し,比較プロンプトに関連付けられた数値特性を効果的に符号化した。
論文 参考訳(メタデータ) (2024-10-17T03:44:11Z) - LLMs' Understanding of Natural Language Revealed [0.0]
大規模言語モデル(LLM)は、大規模言語におけるボトムアップ、データ駆動のリバースエンジニアリングにおける大規模な実験の結果である。
私たちはLLMの言語理解能力、彼らが想定する砦をテストすることに重点を置きます。
論文 参考訳(メタデータ) (2024-07-29T01:21:11Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - Lean Workbook: A large-scale Lean problem set formalized from natural language math problems [50.22847430754973]
大規模な言語モデルは、リーンのような形式言語を使って証明する数学の定理が得意ではありません。
この領域で重要な課題は、これらの形式言語で利用可能なトレーニングデータの不足である。
本稿では,自然言語の数学的問題をリーン4文に変換するために,合成データを反復的に生成・フィルタリングするパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-06T08:25:43Z) - Perplexed: Understanding When Large Language Models are Confused [3.4208414448496027]
本稿では,言語モデルが複雑になる場所を探索するライブラリであるperplexedを紹介する。
Codetokenizerと呼ばれるコードモデルの解析を支援するために構築した追加ツールを使用して、コード生成のためのLLM(Large Language Models)に焦点を当てたケーススタディを実施しました。
我々の研究したコードLLMは、コードが構文的に正しくないコーディング構造において、最悪のパフォーマンスを示しました。
論文 参考訳(メタデータ) (2024-04-09T22:03:39Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Automated Assessment of Students' Code Comprehension using LLMs [0.3293989832773954]
大規模言語モデル(LLM)とエンコーダベースのセマンティックテキスト類似(STS)モデルを評価する。
この結果から,LLMはプログラミング領域における生徒の短解評価において,微調整エンコーダモデルに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-19T20:39:12Z) - Exploring Large Language Models for Code Explanation [3.2570216147409514]
大規模言語モデル(LLM)は自然言語処理において顕著な進歩を遂げている。
本研究では,様々なLLMを用いて,コードスニペットの自然言語要約を生成するタスクについて検討する。
論文 参考訳(メタデータ) (2023-10-25T14:38:40Z) - LEVER: Learning to Verify Language-to-Code Generation with Execution [64.36459105535]
本稿では,プログラムの実行結果の検証を学習することで,言語からコードへの生成を改善するシンプルな手法であるLEVERを提案する。
具体的には、LLMからサンプリングされたプログラムが、自然言語入力、プログラム自体とその実行結果に基づいて正しいか否かを判定するために、検証者を訓練する。
LEVER はベースコード LLMs (4.6% から 10.9% まで) を継続的に改善し、それらすべてに対して新しい最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-16T18:23:22Z) - Augmented Language Models: a Survey [55.965967655575454]
この調査は、言語モデル(LM)が推論スキルとツールの使用能力で強化されているかのレビューを行う。
私たちはこれらをAugmented Language Models (ALMs)と呼ぶ。
トークンの目的の欠如により、ALMは標準的な自然言語タスクを実行しながら、推論、ツールの使用、さらには行動を学ぶことができる。
論文 参考訳(メタデータ) (2023-02-15T18:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。