論文の概要: Structured Program Synthesis using LLMs: Results and Insights from the IPARC Challenge
- arxiv url: http://arxiv.org/abs/2506.13820v1
- Date: Sun, 15 Jun 2025 04:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.169511
- Title: Structured Program Synthesis using LLMs: Results and Insights from the IPARC Challenge
- Title(参考訳): LLMを用いた構造化プログラム合成:IPARCチャレンジの結果と展望
- Authors: Shraddha Surana, Ashwin Srinivasan, Michael Bain,
- Abstract要約: ARCにインスパイアされたIPARC Challengeは、合成画像よりも制御されたプログラム合成タスクを提供する。
本稿では,LLMを用いた構造化帰納的プログラミング手法を提案する。
- 参考スコア(独自算出の注目度): 1.4591178662983573
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The IPARC Challenge, inspired by ARC, provides controlled program synthesis tasks over synthetic images to evaluate automatic program construction, focusing on sequence, selection, and iteration. This set of 600 tasks has resisted automated solutions. This paper presents a structured inductive programming approach with LLMs that successfully solves tasks across all IPARC categories. The controlled nature of IPARC reveals insights into LLM-based code generation, including the importance of prior structuring, LLMs' ability to aid structuring (requiring human refinement), the need to freeze correct code, the efficiency of code reuse, and how LLM-generated code can spark human creativity. These findings suggest valuable mechanisms for human-LLM collaboration in tackling complex program synthesis.
- Abstract(参考訳): ARCにインスパイアされたIPARC Challengeは、合成画像よりも制御されたプログラム合成タスクを提供し、シーケンス、選択、イテレーションに焦点を当てた自動プログラム構築を評価する。
この600のタスクセットは、自動化ソリューションに抵抗している。
本稿では,LLMを用いた構造化帰納的プログラミング手法を提案する。
IPARCの制御された性質は、事前構造化の重要性、構造化を支援するLLMの能力、正しいコードを凍結する必要性、コードの再利用の効率、LLM生成したコードが人間の創造性をいかに引き起こすかなど、LCMベースのコード生成に関する洞察を明らかにしている。
これらの結果は、複雑なプログラム合成に取り組む上で、人間とLLMの協調に有用なメカニズムを示唆している。
関連論文リスト
- An Autonomous Network Orchestration Framework Integrating Large Language Models with Continual Reinforcement Learning [13.3347292702828]
本稿では,SemCom対応SAGINのためのARC(Autonomous Reinforcement Coordination)というフレームワークを提案する。
ARCはオーケストレーションを2層に分割し、LLMを高レベルの計画に、RLエージェントを低レベルの意思決定に利用している。
論文 参考訳(メタデータ) (2025-02-22T11:53:34Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Genetic Instruct: Scaling up Synthetic Generation of Coding Instructions for Large Language Models [59.60208063956459]
大規模言語モデル(LLM)は、効果的なアライメントのために高品質な命令データを必要とする。
本稿では,大規模かつ高品質な符号化命令を合成するスケーラブルなアルゴリズムであるGenematic-Instructを提案する。
論文 参考訳(メタデータ) (2024-07-29T20:42:59Z) - LLM-ARC: Enhancing LLMs with an Automated Reasoning Critic [2.1073328551105623]
LLM-ARCは,Large Language Models (LLM) の論理的推論能力を高めるために設計された,ニューロシンボリックなフレームワークである。
LLM-ARC は Actor-Critic 方式を採用しており、LLM アクターは宣言論理プログラムと意味的正当性テストを生成し、Automated Reasoning Critic はコードを評価し、テストを実行し、反復的洗練のためのテスト失敗に対するフィードバックを提供する。
実験では,LLMのみのベースラインよりも大幅に改善され,論理的テスト生成と反復的自己精製の重要性が強調された。
論文 参考訳(メタデータ) (2024-06-25T15:52:15Z) - When Large Language Models Meet Optical Networks: Paving the Way for Automation [17.4503217818141]
物理層をインテリジェントに制御し,アプリケーション層との相互作用を効果的に行うことを目的として,LLMを利用した光ネットワークのフレームワークを提案する。
提案手法は,ネットワークアラーム解析とネットワーク性能最適化の2つの典型的なタスクで検証される。
良好な応答精度と2,400個のテスト状況のセマティックな類似性は、光ネットワークにおけるLLMの大きな可能性を示している。
論文 参考訳(メタデータ) (2024-05-14T10:46:33Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。