論文の概要: Codifying Natural Langauge Tasks
- arxiv url: http://arxiv.org/abs/2509.17455v1
- Date: Mon, 22 Sep 2025 07:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.274091
- Title: Codifying Natural Langauge Tasks
- Title(参考訳): 自然なランボージュ課題の符号化
- Authors: Haoyang Chen, Kumiko Tanaka-Ishii,
- Abstract要約: ICRAGは自然言語を実行可能なプログラムに変換するフレームワークである。
実世界の自然言語タスクにテキストからコードへのアプローチを適用する際の限界について論じる。
- 参考スコア(独自算出の注目度): 10.635248457021497
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We explore the applicability of text-to-code to solve real-world problems that are typically solved in natural language, such as legal judgment and medical QA. Unlike previous works, our approach leverages the explicit reasoning provided by program generation. We present ICRAG, a framework that transforms natural language into executable programs through iterative refinement using external knowledge from domain resources and GitHub. Across 13 benchmarks, ICRAG achieves up to 161.1\% relative improvement. We provide a detailed analysis of the generated code and the impact of external knowledge, and we discuss the limitations of applying text-to-code approaches to real-world natural language tasks.
- Abstract(参考訳): 法律判断や医学的QAなど,一般的に自然言語で解決される現実世界の問題を解決するために,テキスト・トゥ・コードの適用性について検討する。
従来の手法とは異なり、プログラム生成による明示的な推論を利用する。
我々は、自然言語を実行可能なプログラムに変換するフレームワークであるICRAGについて、ドメインリソースやGitHubからの外部知識を用いて反復的な改良を行った。
13のベンチマークで、ICRAGは161.1\%の相対的な改善を達成している。
本稿では、生成したコードと外部知識の影響を詳細に分析し、実世界の自然言語タスクにテキストからコードへのアプローチを適用する際の限界について論じる。
関連論文リスト
- TextAtari: 100K Frames Game Playing with Language Agents [41.76961149900515]
最大10万ステップに及ぶ長期意思決定タスクにおいて,言語エージェントを評価するためのベンチマークであるTextAtariを提示する。
Atariのゲームをリッチなテキスト記述に翻訳することによって、TextAtariは、自然言語処理でシーケンシャルな意思決定を橋渡しする挑戦的なテストベッドを作る。
論文 参考訳(メタデータ) (2025-06-04T15:55:27Z) - NL-Debugging: Exploiting Natural Language as an Intermediate Representation for Code Debugging [68.42255321759062]
大規模言語モデル(LLM)の最近の進歩は、コード関連タスクを強化するために自然言語推論を活用することに注意を向けている。
本稿では,自然言語を中間表現として用い,コード改善のための新しいフレームワークであるNL-GINGを紹介する。
論文 参考訳(メタデータ) (2025-05-21T10:38:50Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
CodeGRAGは、制御フローとそれらのデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミングドメインの知識をよりよく解釈する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Explain-then-Translate: An Analysis on Improving Program Translation
with Self-generated Explanations [35.91051163603717]
本研究は,言語モデルを用いたコード間翻訳の中間段階として,自己生成型自然言語説明の利用について検討する。
我々は,MultiPL-Eデータセットから構築した3種類の説明と19のプログラミング言語を用いて,ゼロショットの場合において特に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-13T04:28:49Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Controllable Text Generation with Language Constraints [39.741059642044874]
本稿では,自然言語に制約のある言語モデルにおけるテキスト生成の課題について考察する。
私たちのベンチマークには、WordnetやWikidataといったデータベースから得られる知識集約的な制約が含まれています。
本稿では,言語モデルの内部知識を活用して生成をガイドする手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T17:39:21Z) - MCoNaLa: A Benchmark for Code Generation from Multiple Natural Languages [76.93265104421559]
英語以外の自然言語コマンドからコード生成をベンチマークします。
スペイン語,日本語,ロシア語の3言語で896個のNLコードペアを注釈した。
難易度はこれらの3つの言語によって異なるが、全てのシステムは英語にかなり遅れている。
論文 参考訳(メタデータ) (2022-03-16T04:21:50Z) - Natural Language Processing with Commonsense Knowledge: A Survey [9.634283896785611]
本稿では,様々なNLPタスクへのコモンセンス知識の統合について検討する。
我々は、異なるNLPタスクにまたがるコモンセンス知識とその応用を組み込むための重要な方法論を強調した。
また,コモンセンス推論を用いたNLPシステムの高度化における課題と動向について検討した。
論文 参考訳(メタデータ) (2021-08-10T13:25:29Z) - Unsupervised Commonsense Question Answering with Self-Talk [71.63983121558843]
本稿では,コモンセンスタスクの代替として,セルフトークに基づく教師なしフレームワークを提案する。
探索に基づく探索学習にインスパイアされた我々のアプローチは、質問を求める多くの情報で言語モデルに問い合わせる。
実験結果から,ゼロショット言語モデルベースラインの性能が大幅に向上することが示唆された。
論文 参考訳(メタデータ) (2020-04-11T20:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。