論文の概要: Logic-of-Thought: Empowering Large Language Models with Logic Programs for Solving Puzzles in Natural Language
- arxiv url: http://arxiv.org/abs/2505.16114v1
- Date: Thu, 22 May 2025 01:37:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.964142
- Title: Logic-of-Thought: Empowering Large Language Models with Logic Programs for Solving Puzzles in Natural Language
- Title(参考訳): 論理-of-Thought:自然言語でパズルを解く論理プログラムによる大規模言語モデルの強化
- Authors: Naiqi Li, Peiyuan Liu, Zheng Liu, Tao Dai, Yong Jiang, Shu-Tao Xia,
- Abstract要約: 自然言語でパズルを解くことは、AIにおける長年の課題である。
本稿では,大規模言語モデルを論理プログラミングでブリッジするフレームワークであるLogic-of-Thoughtを提案する。
動作を含む様々なグリッドパズルや動的パズルについて評価し、全てのタスクにおいてほぼ完璧な精度を示す。
- 参考スコア(独自算出の注目度): 67.51318974970985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving puzzles in natural language poses a long-standing challenge in AI. While large language models (LLMs) have recently shown impressive capabilities in a variety of tasks, they continue to struggle with complex puzzles that demand precise reasoning and exhaustive search. In this paper, we propose Logic-of-Thought (Logot), a novel framework that bridges LLMs with logic programming to address this problem. Our method leverages LLMs to translate puzzle rules and states into answer set programs (ASPs), the solution of which are then accurately and efficiently inferred by an ASP interpreter. This hybrid approach combines the natural language understanding of LLMs with the precise reasoning capabilities of logic programs. We evaluate our method on various grid puzzles and dynamic puzzles involving actions, demonstrating near-perfect accuracy across all tasks. Our code and data are available at: https://github.com/naiqili/Logic-of-Thought.
- Abstract(参考訳): 自然言語でパズルを解くことは、AIにおける長年の課題である。
大規模言語モデル(LLM)は最近、様々なタスクにおいて印象的な能力を示してきたが、正確な推論と徹底的な探索を必要とする複雑なパズルに苦戦し続けている。
本稿では,LLMに論理プログラミングを組み込んだ新しいフレームワークであるLogic-of-Thought(Logot)を提案する。
提案手法はLLMを利用してパズルルールと状態を解集合プログラム(ASP)に変換し,その解をASPインタプリタによって正確かつ効率的に推論する。
このハイブリッドアプローチは、LLMの自然言語理解と論理プログラムの正確な推論能力を組み合わせる。
動作を含む様々なグリッドパズルや動的パズルについて評価し、全てのタスクにおいてほぼ完璧な精度を示す。
私たちのコードとデータは、https://github.com/naiqili/Logic-of-Thought.comで利用可能です。
関連論文リスト
- Solving Zebra Puzzles Using Constraint-Guided Multi-Agent Systems [25.0042181817455]
本稿では,大言語モデルとオフ・ザ・シェルフ定理証明器を統合したマルチエージェントシステムZPSを紹介する。
このシステムは、問題をより小さく管理可能な部分に分割することで、複雑なパズル解決作業に取り組む。
また,問題解の正当性を評価するための自動グリッドパズルグレーダを導入し,ユーザスタディで評価することで,自動グレーダが信頼性が高いことを示す。
論文 参考訳(メタデータ) (2024-07-04T14:22:25Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Leveraging Large Language Models to Generate Answer Set Programs [5.532477732693001]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて例外的な性能を示した。
本稿では,大規模言語モデルの強みと解集合プログラミングを組み合わせたニューロシンボリック手法を提案する。
論文 参考訳(メタデータ) (2023-07-15T03:40:55Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z) - PAL: Program-aided Language Models [112.94785609781503]
自然言語問題を理解するために,プログラム支援言語モデル(PaL)を提案する。
PaLはソリューションステップをPythonインタプリタのようなプログラムランタイムにオフロードする。
私たちは12のベンチマークで新しい最先端の結果を設定しました。
論文 参考訳(メタデータ) (2022-11-18T18:56:13Z) - Natural language understanding for logical games [0.9594432031144714]
自然言語の論理パズルを自動的に解けるシステムを開発した。
私たちのソリューションは推論モジュールと推論モジュールで構成されています。
また、各パズルに関連する自然言語に関する質問に対して、Yes/Noの回答を提供する能力を、ソフトウェアエージェントに提供します。
論文 参考訳(メタデータ) (2021-10-01T17:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。