論文の概要: Comparing Non-minimal Semantics for Disjunction in Answer Set Programming
- arxiv url: http://arxiv.org/abs/2507.18198v1
- Date: Thu, 24 Jul 2025 08:54:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:43.313034
- Title: Comparing Non-minimal Semantics for Disjunction in Answer Set Programming
- Title(参考訳): 解答集合計画における非最小意味論の比較
- Authors: Felicidad Aguado, Pedro Cabalar, Brais Muñiz, Gilberto Pérez, Concepción Vidal,
- Abstract要約: 解答集合プログラミングにおける解答のための4つの異なる意味論を比較する。
これらの3つのアプローチ(フォーク、正当化されたモデル、DIセマンティクスの合理的な緩和)が実際に一致することを証明します。
この共通意味論は、常にプログラムの安定モデルのスーパーセットを提供する。
- 参考スコア(独自算出の注目度): 1.5503915120227223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we compare four different semantics for disjunction in Answer Set Programming that, unlike stable models, do not adhere to the principle of model minimality. Two of these approaches, Cabalar and Mu\~niz' \emph{Justified Models} and Doherty and Szalas' \emph{Strongly Supported Models}, directly provide an alternative non-minimal semantics for disjunction. The other two, Aguado et al's \emph{Forks} and Shen and Eiter's \emph{Determining Inference} (DI) semantics, actually introduce a new disjunction connective, but are compared here as if they constituted new semantics for the standard disjunction operator. We are able to prove that three of these approaches (Forks, Justified Models and a reasonable relaxation of the DI semantics) actually coincide, constituting a common single approach under different definitions. Moreover, this common semantics always provides a superset of the stable models of a program (in fact, modulo any context) and is strictly stronger than the fourth approach (Strongly Supported Models), that actually treats disjunctions as in classical logic.
- Abstract(参考訳): 本稿では,安定モデルと異なり,モデル最小化の原理に従わない解答集合プログラミングにおいて,解答の4つの意味を比較検討する。
これらの2つのアプローチ、すなわち Cabalar と Mu\~niz' \emph{Justified Models} と Doherty と Szalas' \emph{Strongly Supported Models} は、解離に対する代替の最小でない意味論を直接提供する。
他の2つ、Aguado et al's \emph{Forks} と Shen and Eiter's \emph{Determining Inference} (DI) セマンティクスは、実際には新しい共役接続を導入しているが、ここでは標準共役演算子のための新しいセマンティクスを構成するように比較される。
これらの3つのアプローチ(フォーク、正当化されたモデル、DIセマンティクスの合理的な緩和)が実際に一致していることを証明することができ、異なる定義の下で共通の単一アプローチを構成することができます。
さらに、この共通意味論は、プログラムの安定なモデルのスーパーセットを常に提供し(実際、どんな文脈でもモジュロ)、4番目のアプローチ (Strongly Supported Models) よりも厳密である。
関連論文リスト
- Fuzzy Propositional Formulas under the Stable Model Semantics [7.052794276153519]
ファジィ命題論理と古典命題論理の安定モデル意味論の両方を一般化するファジィ命題論理の安定モデル意味論を定義する。
言語の構文はファジィ命題論理の構文と同じであるが、その意味論は安定モデルと不安定モデルとを区別する。
論文 参考訳(メタデータ) (2025-06-15T10:38:56Z) - Meaning Representations from Trajectories in Autoregressive Models [106.63181745054571]
入力テキストを拡張可能なすべてのトラジェクトリの分布を考慮し,自己回帰言語モデルから意味表現を抽出する。
この戦略はプロンプトフリーであり、微調整は必要とせず、事前訓練された自己回帰モデルにも適用できる。
我々は,大規模なモデルから得られた表現が人間のアノテーションとよく一致し,意味的類似性タスクにおける他のゼロショットおよびプロンプトフリーメソッドよりも優れており,標準埋め込みが扱えないより複雑なエンタテインメントや包含タスクの解決に使用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-10-23T04:35:58Z) - On Loop Formulas with Variables [2.1955512452222696]
最近、フェラーリス、リー、リフシッツはグラウンド化に言及しない安定モデルの新たな定義を提案した。
我々は、Chen, Lin, Wang, Zhang による変数を持つループ公式のアイデアとの関係を示す。
論理プログラムの構文を拡張して、明示的な量化を許容し、その意味論を安定モデルの新しい言語のサブクラスとして定義する。
論文 参考訳(メタデータ) (2023-07-15T06:20:43Z) - Distance Based Image Classification: A solution to generative
classification's conundrum? [70.43638559782597]
差別的境界は、何によって意味論を定義するため、直観に反するものであると論じる。
本稿では,シェル理論の階層的生成過程によって意味的因子が許容される新しい生成モデルを提案する。
本モデルを用いて,意味的手がかりを保ちながら雑音の影響を抑える分類手法を開発した。
論文 参考訳(メタデータ) (2022-10-04T03:35:13Z) - Duality-Induced Regularizer for Semantic Matching Knowledge Graph
Embeddings [70.390286614242]
本稿では, 類似のセマンティクスを持つエンティティの埋め込みを効果的に促進する新しい正規化器(duality-induced RegulArizer (DURA))を提案する。
実験により、DURAは、最先端のセマンティックマッチングモデルの性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2022-03-24T09:24:39Z) - Few-Shot Semantic Parsing with Language Models Trained On Code [52.23355024995237]
Codexは同等のGPT-3モデルよりもセマンティックパーシングが優れていることがわかった。
GPT-3とは異なり、Codexは意味表現を直接ターゲットとする場合、おそらく意味解析で使われる意味表現がコードと似た構造になっているように、同じように機能する。
論文 参考訳(メタデータ) (2021-12-16T08:34:06Z) - Self-Supervised Learning Disentangled Group Representation as Feature [82.07737719232972]
既存の自己監督学習(SSL)は、回転や着色などの単純な拡張機能のみを分解することを示す。
反復的分割に基づく不変リスク最小化(IP-IRM)を提案する。
我々は、IP-IRMが完全に不整合表現に収束し、様々なベンチマークでその効果を示すことを証明した。
論文 参考訳(メタデータ) (2021-10-28T16:12:33Z) - Rationales for Sequential Predictions [117.93025782838123]
シーケンスモデルは現代のNLPシステムにおいて重要な要素であるが、それらの予測は説明が難しい。
モデル説明は有理だが、個々のモデル予測を説明できる文脈のサブセットを考える。
この目的を近似する効率的なグリードアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-14T01:25:15Z) - Awareness Logic: Kripke Lattices as a Middle Ground between Syntactic
and Semantic Models [0.0]
我々は原子サブセット包含によって誘導されるクリプキモデルの格子を提供し、不確かさと不明瞭さを分離する。
明示的な知識のための言語の公式の満足度を保った変換を定義することにより,HMSモデルとFHモデルの両方に等価なモデルを示す。
論文 参考訳(メタデータ) (2021-06-24T10:04:44Z) - On graded semantics of abstract argumentation: Extension-based case [0.0]
本稿では,抽象的議論フレームワーク(AAF)における拡張型意味論の課題について考察する。
代替基本補題が与えられ、[1]で得られた対応する結果を一般化する。
コンフリクトフリー、許容可能、完全、安定のセマンティクスを含む、AFの基本的なセマンティクスは、リミット・ミート・モジュロ・アン・ウルトラフィルタの下で閉じられていることが示されている。
論文 参考訳(メタデータ) (2020-12-19T04:32:19Z) - Semantics of negative sequential patterns [0.0]
パターンマイニングにおいて、負のシーケンシャルパターンは、発生すべきイベントと他のイベント(負のイベントと呼ばれる)からなるシーケンスによって指定され、欠落する。
本稿では、このような直感的な表記の曖昧さを隠蔽し、パターンとシーケンスの包含関係に関する8つの意味を識別する。
論文 参考訳(メタデータ) (2020-02-17T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。