論文の概要: MCP-Solver: Integrating Language Models with Constraint Programming Systems
- arxiv url: http://arxiv.org/abs/2501.00539v2
- Date: Sun, 06 Apr 2025 08:39:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 16:00:10.52885
- Title: MCP-Solver: Integrating Language Models with Constraint Programming Systems
- Title(参考訳): MCP-Solver:制約プログラミングシステムと言語モデルの統合
- Authors: Stefan Szeider,
- Abstract要約: MCPソルバは、AIシステム統合のオープンソース標準であるModel Context Protocol(MCP)を通じて、シンボル解決器でLarge Language Modelsをブリッジする。
我々の実装は制約プログラミング(Minizinc)、命題満足度(PySAT)、SATモジュラー理論(Python Z3)のためのインターフェースを提供する。
このシステムは、修正中のモデルの一貫性を保証し、構造化された洗練を可能にするために、反復検証を伴う編集アプローチを採用している。
- 参考スコア(独自算出の注目度): 23.191983095692223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The MCP Solver bridges Large Language Models (LLMs) with symbolic solvers through the Model Context Protocol (MCP), an open-source standard for AI system integration. Providing LLMs access to formal solving and reasoning capabilities addresses their key deficiency while leveraging their strengths. Our implementation offers interfaces for constraint programming (Minizinc), propositional satisfiability (PySAT), and SAT modulo Theories (Python Z3). The system employs an editing approach with iterated validation to ensure model consistency during modifications and enable structured refinement.
- Abstract(参考訳): MCPソルバーは、AIシステム統合のオープンソース標準である Model Context Protocol (MCP) を通じて、シンボル的解決器でLarge Language Models (LLM) をブリッジする。
公式な解法と推論能力へのアクセスを提供することは、彼らの強みを生かしながら、彼らの重要な欠陥に対処する。
我々の実装は制約プログラミング(Minizinc)、命題満足度(PySAT)、SATモジュラー理論(Python Z3)のためのインターフェースを提供する。
このシステムは、修正中のモデルの一貫性を保証し、構造化された洗練を可能にするために、反復検証を伴う編集アプローチを採用している。
関連論文リスト
- Syntactic and Semantic Control of Large Language Models via Sequential Monte Carlo [90.78001821963008]
広い範囲のLMアプリケーションは、構文的制約や意味論的制約に適合するテキストを生成する必要がある。
我々は、連続モンテカルロ(SMC)に基づく制御LM生成のためのアーキテクチャを開発する。
我々のシステムはLew et al. (2023) のフレームワーク上に構築されており、言語モデル確率型プログラミング言語と統合されている。
論文 参考訳(メタデータ) (2025-04-17T17:49:40Z) - Self-Steering Language Models [113.96916935955842]
DisCIPLは、"セルフステアリング(self-steering)"言語モデルのメソッドである。
DisCIPLはPlannerモデルを使用してタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - Towards a Probabilistic Framework for Analyzing and Improving LLM-Enabled Software [0.0]
大規模言語モデル(LLM)対応システムは、ソフトウェア工学において重要な課題である。
本稿では,これらのシステムを体系的に解析し,改善するための確率的枠組みを提案する。
論文 参考訳(メタデータ) (2025-01-10T22:42:06Z) - Towards Predictive Communication with Brain-Computer Interfaces integrating Large Language Models [0.0]
近年の研究では、予測言語モデルとBCIの組み合わせが人間とコンピュータの相互作用を大幅に改善する可能性が示唆されている。
特に、GPTのような事前訓練された自己回帰変換器モデルは、通信のためのBCIを大幅に改善することを約束する。
論文 参考訳(メタデータ) (2024-12-10T09:48:07Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - LLM as a code generator in Agile Model Driven Development [1.12646803578849]
この研究は、これらの課題を克服するための実行可能な戦略としてモデル駆動開発(MDD)を擁護します。
我々は GPT4 をコードジェネレータとして利用する Agile Model Driven Development (AMDD) アプローチを提案する。
GPT4自動生成機能を適用すると、JADEおよびPADEフレームワークと互換性のあるJavaとPythonコードが生成される。
論文 参考訳(メタデータ) (2024-10-24T07:24:11Z) - Enhancing Multi-Step Reasoning Abilities of Language Models through Direct Q-Function Optimization [49.362750475706235]
強化学習(Reinforcement Learning, RL)は、大規模言語モデルを人間の好みと整合させ、複雑なタスクを遂行する能力を向上させる上で重要な役割を担っている。
反応生成過程をマルコフ決定プロセス(MDP)として定式化し,ソフトアクター・クリティック(SAC)フレームワークを用いて,言語モデルによって直接パラメータ化されたQ関数を最適化する,直接Q関数最適化(DQO)を提案する。
GSM8KとMATHという2つの数学問題解決データセットの実験結果から、DQOは従来の手法よりも優れており、言語モデルを整合させるための有望なオフライン強化学習手法として確立されている。
論文 参考訳(メタデータ) (2024-10-11T23:29:20Z) - Attribute Controlled Fine-tuning for Large Language Models: A Case Study on Detoxification [76.14641982122696]
本稿では,属性制御付き大規模言語モデル(LLM)の制約学習スキーマを提案する。
提案手法は, ベンチマーク上での競合性能と毒性検出タスクを達成しながら, 不適切な応答を少ないLCMに導出することを示す。
論文 参考訳(メタデータ) (2024-10-07T23:38:58Z) - Declarative Integration and Management of Large Language Models through Finite Automata: Application to Automation, Communication, and Ethics [41.94295877935867]
この記事では、設計した革新的なアーキテクチャを紹介します。
最も適切な大言語モデル(LLM)を共有履歴で記述し、最も適切な言語を識別するトリガーを記述します。
特定のタスクのためのLLM。
論文 参考訳(メタデータ) (2024-09-02T11:50:52Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - A Framework to Model ML Engineering Processes [1.9744907811058787]
機械学習(ML)ベースのシステムの開発は複雑で、多様なスキルセットを持つ複数の学際的なチームが必要である。
現在のプロセスモデリング言語は、そのようなシステムの開発を説明するには適していない。
ドメイン固有言語を中心に構築されたMLベースのソフトウェア開発プロセスのモデリングフレームワークを紹介する。
論文 参考訳(メタデータ) (2024-04-29T09:17:36Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - Synergy of Large Language Model and Model Driven Engineering for Automated Development of Centralized Vehicular Systems [2.887732304499794]
モデル駆動工学(MDE)とLarge Language Models(LLM)の相乗効果を利用したツールのプロトタイプを提案する。
CARLAシミュレータを用いて、緊急ブレーキのシナリオにおいて、生成されたコードをシミュレーション環境で評価する。
論文 参考訳(メタデータ) (2024-04-08T13:28:11Z) - Is Modularity Transferable? A Case Study through the Lens of Knowledge Distillation [59.37775534633868]
同族PLM間で事前訓練されたタスク固有のPEFTモジュールを転送するための極めて簡単なアプローチを提案する。
また,不整合性PLM間のモジュールの移動を,推論複雑性の変化を伴わずに行う方法を提案する。
論文 参考訳(メタデータ) (2024-03-27T17:50:00Z) - A SysML Profile for the Standardized Description of Processes during
System Development [40.539768677361735]
形式化されたプロセス記述(FPD)のためのVDI/VDE 3682標準は、プロセスのシンプルで理解しやすい表現を提供する。
この貢献は、システムモデリング言語(SysML)へのVDI/VDE 3682の統合を促進するドメイン特化モデリング言語(D)の開発に焦点を当てている。
論文 参考訳(メタデータ) (2024-03-11T13:44:38Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z) - Towards Auto-Modeling of Formal Verification for NextG Protocols: A
Multimodal cross- and self-attention Large Language Model Approach [3.9155346446573502]
本稿では,5GおよびNextGプロトコル(AVRE)のための実世界プロンプトを用いた形式検証の自動モデリングを提案する。
AVREは次世代通信プロトコル(NextG)の正式な検証のために設計された新しいシステムである。
論文 参考訳(メタデータ) (2023-12-28T20:41:24Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。