論文の概要: Explaining Hitori Puzzles: Neurosymbolic Proof Staging for Sequential Decisions
- arxiv url: http://arxiv.org/abs/2508.14294v1
- Date: Tue, 19 Aug 2025 22:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.283618
- Title: Explaining Hitori Puzzles: Neurosymbolic Proof Staging for Sequential Decisions
- Title(参考訳): ひとりパズルの解説 : シークエンシャル決定のための神経シンボリック証明
- Authors: Maria Leonor Pacheco, Fabio Somenzi, Dananjay Srinivas, Ashutosh Trivedi,
- Abstract要約: 本稿では、複雑な決定の順序を説明するための神経象徴的アプローチを提案する。
本研究では, ヒトリパズルの解法を説明することによって, このアプローチを実証する。
- 参考スコア(独自算出の注目度): 9.403223210138902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a neurosymbolic approach to the explanation of complex sequences of decisions that combines the strengths of decision procedures and Large Language Models (LLMs). We demonstrate this approach by producing explanations for the solutions of Hitori puzzles. The rules of Hitori include local constraints that are effectively explained by short resolution proofs. However, they also include a connectivity constraint that is more suitable for visual explanations. Hence, Hitori provides an excellent testing ground for a flexible combination of SAT solvers and LLMs. We have implemented a tool that assists humans in solving Hitori puzzles, and we present experimental evidence of its effectiveness.
- Abstract(参考訳): 本稿では,決定手順の強みとLarge Language Models (LLMs) を組み合わせた,複雑な決定列の説明のためのニューロシンボリックアプローチを提案する。
本研究では, ヒトリパズルの解法を説明することによって, このアプローチを実証する。
ひとりの規則には、短時間の解決証明によって効果的に説明される局所的な制約が含まれている。
しかし、それらはまた、視覚的な説明により適した接続制約を含んでいる。
したがって、ひとりはSATソルバとLLMの柔軟な組み合わせのための優れた試験場を提供する。
我々は, ひとりパズルの解き方を支援するツールを開発し, その有効性を示す実験的な証拠を提示する。
関連論文リスト
- Explaining Puzzle Solutions in Natural Language: An Exploratory Study on 6x6 Sudoku [8.094824604103609]
5つの大言語モデル(LLM)の性能を6つのスドクパズルの解法と説明法として評価した。
1つのLSMはパズルの解法において限られた成功を示すが、戦略的推論や直感的な問題解決を反映した方法で解法プロセスを説明することはできない。
論文 参考訳(メタデータ) (2025-05-21T20:22:37Z) - CrossWordBench: Evaluating the Reasoning Capabilities of LLMs and LVLMs with Controllable Puzzle Generation [53.452699232071495]
そこで我々は,大言語モデル(LLM)とLVLM(Large Vision-Language Model)の推論能力を評価するためのベンチマークであるCrossWordBenchを紹介する。
評価の結果,LLMの推論は,クロスレター制約を効果的に活用することにより,非推論モデルよりも大幅に優れていることがわかった。
本研究は,現在のLLMとLVLMの推論能力の限界を強調し,今後の評価のために,マルチモーダル制約タスクを作成するための効果的なアプローチを提供する。
論文 参考訳(メタデータ) (2025-03-30T20:03:36Z) - ZebraLogic: On the Scaling Limits of LLMs for Logical Reasoning [92.76959707441954]
我々はLLM推論性能を評価するための総合的な評価フレームワークであるZebraLogicを紹介した。
ZebraLogicは、制御可能で定量化可能な複雑さを持つパズルの生成を可能にする。
その結果,複雑性が増大するにつれて,精度が著しく低下することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-03T06:44:49Z) - Forest-of-Thought: Scaling Test-Time Compute for Enhancing LLM Reasoning [40.069109287947875]
我々はフォレスト・オブ・サート(FoT)と呼ばれる新しい推論フレームワークを提案する。
FoTは複数の推論木を統合し、複雑な論理問題を解くために集合的な意思決定を活用する。
FoTは、最も関連性の高い推論パスを選択するためにスパースアクティベーション戦略を採用し、効率と精度の両方を改善している。
論文 参考訳(メタデータ) (2024-12-12T09:01:18Z) - Puzzle Solving using Reasoning of Large Language Models: A Survey [1.9939549451457024]
本稿では,Large Language Models (LLMs) のパズル解法における能力について検討する。
以上の結果から,LLM能力と人為的推論の相違が明らかとなった。
この調査は、LLMのパズル解決能力を向上させるために、新しい戦略とよりリッチなデータセットの必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-02-17T14:19:38Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。