論文の概要: MCP-Solver: Integrating Language Models with Constraint Programming Systems
- arxiv url: http://arxiv.org/abs/2501.00539v2
- Date: Sun, 06 Apr 2025 08:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:08:20.334890
- Title: MCP-Solver: Integrating Language Models with Constraint Programming Systems
- Title(参考訳): MCP-Solver:制約プログラミングシステムと言語モデルの統合
- Authors: Stefan Szeider,
- Abstract要約: MCPソルバは、AIシステム統合のオープンソース標準であるModel Context Protocol(MCP)を通じて、シンボル解決器でLarge Language Modelsをブリッジする。
我々の実装は制約プログラミング(Minizinc)、命題満足度(PySAT)、SATモジュラー理論(Python Z3)のためのインターフェースを提供する。
このシステムは、修正中のモデルの一貫性を保証し、構造化された洗練を可能にするために、反復検証を伴う編集アプローチを採用している。
- 参考スコア(独自算出の注目度): 23.191983095692223
- License:
- Abstract: The MCP Solver bridges Large Language Models (LLMs) with symbolic solvers through the Model Context Protocol (MCP), an open-source standard for AI system integration. Providing LLMs access to formal solving and reasoning capabilities addresses their key deficiency while leveraging their strengths. Our implementation offers interfaces for constraint programming (Minizinc), propositional satisfiability (PySAT), and SAT modulo Theories (Python Z3). The system employs an editing approach with iterated validation to ensure model consistency during modifications and enable structured refinement.
- Abstract(参考訳): MCPソルバーは、AIシステム統合のオープンソース標準である Model Context Protocol (MCP) を通じて、シンボル的解決器でLarge Language Models (LLM) をブリッジする。
公式な解法と推論能力へのアクセスを提供することは、彼らの強みを生かしながら、彼らの重要な欠陥に対処する。
我々の実装は制約プログラミング(Minizinc)、命題満足度(PySAT)、SATモジュラー理論(Python Z3)のためのインターフェースを提供する。
このシステムは、修正中のモデルの一貫性を保証し、構造化された洗練を可能にするために、反復検証を伴う編集アプローチを採用している。
関連論文リスト
- Towards a Probabilistic Framework for Analyzing and Improving LLM-Enabled Software [0.0]
大規模言語モデル(LLM)対応システムは、ソフトウェア工学において重要な課題である。
本稿では,これらのシステムを体系的に解析し,改善するための確率的枠組みを提案する。
本稿では,自然言語文書を形式的プログラム仕様に変換する自動形式化問題に適用する。
論文 参考訳(メタデータ) (2025-01-10T22:42:06Z) - Towards Predictive Communication with Brain-Computer Interfaces integrating Large Language Models [0.0]
近年の研究では、予測言語モデルとBCIの組み合わせが人間とコンピュータの相互作用を大幅に改善する可能性が示唆されている。
特に、GPTのような事前訓練された自己回帰変換器モデルは、通信のためのBCIを大幅に改善することを約束する。
論文 参考訳(メタデータ) (2024-12-10T09:48:07Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Declarative Integration and Management of Large Language Models through Finite Automata: Application to Automation, Communication, and Ethics [41.94295877935867]
この記事では、設計した革新的なアーキテクチャを紹介します。
最も適切な大言語モデル(LLM)を共有履歴で記述し、最も適切な言語を識別するトリガーを記述します。
特定のタスクのためのLLM。
論文 参考訳(メタデータ) (2024-09-02T11:50:52Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - A Framework to Model ML Engineering Processes [1.9744907811058787]
機械学習(ML)ベースのシステムの開発は複雑で、多様なスキルセットを持つ複数の学際的なチームが必要である。
現在のプロセスモデリング言語は、そのようなシステムの開発を説明するには適していない。
ドメイン固有言語を中心に構築されたMLベースのソフトウェア開発プロセスのモデリングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-04-29T09:17:36Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous
Driving [87.1164964709168]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。