論文の概要: Natural Language Embedded Programs for Hybrid Language Symbolic
Reasoning
- arxiv url: http://arxiv.org/abs/2309.10814v1
- Date: Tue, 19 Sep 2023 17:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 13:02:21.234742
- Title: Natural Language Embedded Programs for Hybrid Language Symbolic
Reasoning
- Title(参考訳): ハイブリッド言語シンボリック推論のための自然言語組込みプログラム
- Authors: Tianhua Zhang, Jiaxin Ge, Hongyin Luo, Yung-Sung Chuang, Mingye Gao,
Yuan Gong, Xixin Wu, Yoon Kim, Helen Meng, James Glass
- Abstract要約: 本研究では,数学・記号的推論,自然言語理解,後続の課題に対処するための統合フレームワークとして,自然言語組み込みプログラム(NLEP)を提案する。
我々のアプローチは,構造化知識の自然言語表現を含むデータ構造上の関数を定義する完全なPythonプログラムを生成するよう,言語モデルに促す。
Pythonインタープリタが生成されたコードを実行し、出力をプリントする。
- 参考スコア(独自算出の注目度): 86.92053166457116
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can we perform computations over natural language representations to
solve tasks that require symbolic and numeric reasoning? We propose natural
language embedded programs (NLEP) as a unifying framework for addressing
math/symbolic reasoning, natural language understanding, and instruction
following tasks. Our approach prompts a language model to generate full Python
programs that define functions over data structures which contain natural
language representations of structured knowledge. A Python interpreter then
executes the generated code and prints the output. Despite using a task-general
prompt, we find that this approach can improve upon strong baselines across a
range of different tasks including math and symbolic reasoning, text
classification, question answering, and instruction following. We further find
the generated programs are often interpretable and enable post-hoc verification
of the intermediate reasoning steps.
- Abstract(参考訳): 記号的および数値的推論を必要とするタスクを解決するために、自然言語表現上でどのように計算を実行できるのか?
本研究では,数学・記号的推論,自然言語理解,命令追従タスクの統一フレームワークとして,自然言語組み込みプログラム(NLEP)を提案する。
我々のアプローチは,構造化知識の自然言語表現を含むデータ構造上の関数を定義する完全なPythonプログラムを生成するよう,言語モデルに促す。
Pythonインタープリタが生成されたコードを実行し、出力をプリントする。
タスク・ジェネラル・プロンプトを用いても,本手法は数学や記号的推論,テキスト分類,質問応答,指示追従といった様々なタスクにおいて,強いベースラインを改善することができる。
さらに, 生成したプログラムは解釈可能であり, 中間的推論ステップのポストホック検証を可能にする。
関連論文リスト
- Which Programming Language and What Features at Pre-training Stage Affect Downstream Logical Inference Performance? [26.91104188917787]
大規模言語モデル(LLM)は、数学や論理的推論タスクにおいて顕著な一般化能力を示している。
本研究の目的は,事前学習中の言語と特徴が論理推論性能にどのような影響を及ぼすかを検証することである。
論文 参考訳(メタデータ) (2024-10-09T10:13:13Z) - CRUXEval-X: A Benchmark for Multilingual Code Reasoning, Understanding and Execution [50.7413285637879]
CRUXEVAL-Xコード推論ベンチマークには19のプログラミング言語が含まれている。
各言語に対して少なくとも600人の被験者で構成され、合計19Kのコンテンツ一貫性テストがある。
Pythonでのみトレーニングされたモデルでさえ、他の言語で34.4%のPass@1を達成することができる。
論文 参考訳(メタデータ) (2024-08-23T11:43:00Z) - AIOS Compiler: LLM as Interpreter for Natural Language Programming and Flow Programming of AI Agents [38.580779075892636]
我々は、コード表現と実行(CoRE)のための新しいシステムを開発する。
提案システムは,自然言語プログラミング,擬似コードプログラミング,フロープログラミングを同一表現で統合し,言語エージェントを構築する。
実行中に、冗長性を最小化するために外部メモリを組み込む。
論文 参考訳(メタデータ) (2024-05-11T04:29:03Z) - Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models [17.76252625790628]
本稿では,言語モデルの推論過程を2段階に分解するフレームワークであるThink-and-Executeについて述べる。
7つのアルゴリズム的推論タスクについて広範な実験を行い、思考と実行の有効性を実証する。
論文 参考訳(メタデータ) (2024-04-03T08:49:11Z) - Understanding Programs by Exploiting (Fuzzing) Test Cases [26.8259045248779]
プログラムのより深い意味理解を実現するために,入力と出力/振る舞いの関係を学習に取り入れることを提案する。
コードの大部分の実行をトリガーするのに十分な入力を得るために,ファズテストを採用し,ファズチューニングを提案する。
提案手法の有効性は,コードクローン検出とコード分類を含む2つのプログラム理解タスクにおいて検証され,最先端技術よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-05-23T01:51:46Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Python Code Generation by Asking Clarification Questions [57.63906360576212]
本稿では,この課題に対して,より斬新で現実的なセットアップを導入する。
我々は、自然言語記述の過小評価は、明確化を問うことで解決できると仮定する。
我々は、生成した合成明確化質問と回答を含む自然言語記述とコードのペアを含む、CodeClarQAという新しいデータセットを収集し、導入する。
論文 参考訳(メタデータ) (2022-12-19T22:08:36Z) - Categorical Tools for Natural Language Processing [0.0]
この論文は、圏論と計算言語学の間の翻訳を発展させている。
3章は構文、意味論、実践論を扱う。
結果として生じる関手モデルは、平衡が言語処理タスクの解であるようなゲームを形成するために構成することができる。
論文 参考訳(メタデータ) (2022-12-13T15:12:37Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Natural Language to Code Translation with Execution [82.52142893010563]
実行結果-プログラム選択のための最小ベイズリスク復号化。
そこで本研究では,自然言語からコードへのタスクにおいて,事前訓練されたコードモデルの性能を向上することを示す。
論文 参考訳(メタデータ) (2022-04-25T06:06:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。