論文の概要: Rethinking Answer Set Programming Templates
- arxiv url: http://arxiv.org/abs/2307.06382v1
- Date: Wed, 12 Jul 2023 18:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 16:48:10.668675
- Title: Rethinking Answer Set Programming Templates
- Title(参考訳): 回答セットプログラミングテンプレートの再考
- Authors: Mario Alviano, Giovambattista Ianni, Francesco Pacenza and Jessica
Zangari
- Abstract要約: この記事では、Answer Set Programmingのテンプレートの概念を紹介します。
ローカルな述語は、主流のエンジンが採用する通常のグローバルな形式にマッピングされる。
このようにして、テンプレートの期待結果に対して不変性を強制するためにローカル述語を使用することができる。
- 参考スコア(独自算出の注目度): 4.817429789586126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In imperative programming, the Domain-Driven Design methodology helps in
coping with the complexity of software development by materializing in code the
invariants of a domain of interest. Code is cleaner and more secure because any
implicit assumption is removed in favor of invariants, thus enabling a fail
fast mindset and the immediate reporting of unexpected conditions. This article
introduces a notion of template for Answer Set Programming that, in addition to
the don't repeat yourself principle, enforces locality of some predicates by
means of a simple naming convention. Local predicates are mapped to the usual
global namespace adopted by mainstream engines, using universally unique
identifiers to avoid name clashes. This way, local predicates can be used to
enforce invariants on the expected outcome of a template in a possibly empty
context of application, independently by other rules that can be added to such
a context. Template applications transpiled this way can be processed by
mainstream engines and safely shared with other knowledge designers, even when
they have zero knowledge of templates.
- Abstract(参考訳): 命令型プログラミングでは、ドメイン駆動設計(Domain-Driven Design)方法論は、関心のある領域の不変性をコードで実現することによって、ソフトウェア開発の複雑さに対処するのに役立つ。
暗黙の仮定は不変性に優先して取り除かれるため、コードはよりクリーンで安全であるため、失敗の速いマインドセットと予期しない条件の即時報告が可能になる。
この記事では、答集合プログラミングのテンプレートの概念を紹介します。don't repeat yourselfの原則に加えて、単純な命名規約によっていくつかの述語を局所的に強制します。
ローカル述語は、メインストリームエンジンが採用する通常のグローバルネームスペースにマッピングされ、名前の衝突を避けるために普遍的にユニークな識別子を使用する。
このようにして、ローカル述語は、そのようなコンテキストに追加できる他のルールとは独立して、おそらく空のアプリケーションコンテキストにおけるテンプレートの期待結果の不変性を強制することができる。
このようにトランスパイアされたテンプレートアプリケーションは、主流のエンジンによって処理され、テンプレートに関する知識がなくても、他の知識デザイナーと安全に共有することができる。
関連論文リスト
- Just Ask One More Time! Self-Agreement Improves Reasoning of Language Models in (Almost) All Scenarios [20.097990701501523]
textbfSelf-Agreementは、ほとんどすべてのシナリオに適用できる一般化可能なアンサンブル最適化手法である。
6つの公開推論ベンチマークと優れた一般化能力で、同時に顕著なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-14T13:30:54Z) - Compositional Program Generation for Few-Shot Systematic Generalization [59.57656559816271]
コンポジションプログラムジェネレータ(CPG)と呼ばれるニューロシンボリックアーキテクチャに関する研究
CPGには3つの重要な特徴がある: 文法規則の形で、テキストモジュラリティ、テキストコンポジション、テキストタストラクションである。
SCAN と COGS のベンチマークでは,SCAN の14例と COGS の22例を使用して,完全な一般化を実現している。
論文 参考訳(メタデータ) (2023-09-28T14:33:20Z) - Toward Unified Controllable Text Generation via Regular Expression
Instruction [56.68753672187368]
本稿では,正規表現の利点をフル活用し,多様な制約を一様にモデル化する命令ベース機構を用いた正規表現指導(REI)を提案する。
提案手法では,中規模言語モデルの微調整や,大規模言語モデルでの少数ショット・インコンテクスト学習のみを要し,各種制約の組み合わせに適用した場合のさらなる調整は不要である。
論文 参考訳(メタデータ) (2023-09-19T09:05:14Z) - Integrating LLMs and Decision Transformers for Language Grounded
Generative Quality-Diversity [0.0]
品質多様性(Quality-Diversity)は最適化の一分野であり、強化学習と制御ドメインの問題によく適用される。
本稿では,レパートリーをトラジェクトリの自然言語記述で拡張する大規模言語モデルを提案する。
また、このような生成エージェントの性能を評価するためのLCMベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-25T10:00:06Z) - On Loop Formulas with Variables [2.1955512452222696]
最近、フェラーリス、リー、リフシッツはグラウンド化に言及しない安定モデルの新たな定義を提案した。
我々は、Chen, Lin, Wang, Zhang による変数を持つループ公式のアイデアとの関係を示す。
論理プログラムの構文を拡張して、明示的な量化を許容し、その意味論を安定モデルの新しい言語のサブクラスとして定義する。
論文 参考訳(メタデータ) (2023-07-15T06:20:43Z) - Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - Template-free Prompt Tuning for Few-shot NER [46.59447116255979]
テンプレートを使わずにNERタスクをLM問題として再構成するよりエレガントな手法を提案する。
具体的には,事前学習モデルの単語予測パラダイムを維持しながらテンプレート構築プロセスを捨てる。
実験により, バート・タガー法およびテンプレートベース法に対して, 数ショット設定で提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-09-28T07:19:24Z) - Explicitly Modeling Syntax in Language Models with Incremental Parsing
and a Dynamic Oracle [88.65264818967489]
我々は新しい構文認識型言語モデル、Syntactic Ordered Memory (SOM)を提案する。
モデルは、構造をインクリメンタルにモデル化し、標準言語モデルの条件付き確率設定を維持する。
実験により、SOMは言語モデリング、インクリメンタル解析、構文一般化テストにおいて強力な結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-21T17:39:15Z) - Invariant Causal Prediction for Block MDPs [106.63346115341862]
環境全体にわたる一般化は、実世界の課題への強化学習アルゴリズムの適用の成功に不可欠である。
本稿では,多環境環境における新しい観測を一般化するモデル不適合状態抽象化(MISA)を学習するための不変予測法を提案する。
論文 参考訳(メタデータ) (2020-03-12T21:03:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。