論文の概要: Measuring Inconsistency in Declarative Process Specifications
- arxiv url: http://arxiv.org/abs/2206.07080v1
- Date: Tue, 14 Jun 2022 18:08:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 03:22:12.810038
- Title: Measuring Inconsistency in Declarative Process Specifications
- Title(参考訳): 宣言的プロセス仕様の不整合の測定
- Authors: Carl Corea, John Grant, Matthias Thimm
- Abstract要約: 古典論理学の既存の矛盾度尺度は、一般には意味のある矛盾度評価を提供することができない。
不整合測定の枠組みとして,新たにパラ一貫性セマンティクスを提案する。
本稿では,これらの手法を宣言的プロセスモデルに適用し,導入したアプローチの計算複雑性について考察する。
- 参考スコア(独自算出の注目度): 8.048412266667176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the problem of measuring inconsistency in declarative process
specifications, with an emphasis on linear temporal logic on fixed traces
(LTLff). As we will show, existing inconsistency measures for classical logic
cannot provide a meaningful assessment of inconsistency in LTL in general, as
they cannot adequately handle the temporal operators. We therefore propose a
novel paraconsistent semantics as a framework for inconsistency measurement. We
then present two new inconsistency measures based on these semantics and show
that they satisfy important desirable properties. We show how these measures
can be applied to declarative process models and investigate the computational
complexity of the introduced approach.
- Abstract(参考訳): 定形トレース(LTLff)上の線形時間論理に重点を置いて、宣言的プロセス仕様の不整合を計測する問題に対処する。
ここで示すように、古典論理に対する既存の不整合測度は、時間演算子を適切に扱えないため、LTLにおける不整合の有意義な評価を提供することができない。
そこで我々は,不整合測定の枠組みとして,新しい矛盾意味論を提案する。
次に、これらの意味に基づく2つの新しい非一貫性尺度を示し、それらが重要な望ましい特性を満たすことを示す。
本稿では,これらの手法を宣言的プロセスモデルに適用し,導入したアプローチの計算複雑性について考察する。
関連論文リスト
- Uncertainty Decomposition and Quantification for In-Context Learning of
Large Language Models [54.18411645870683]
大規模言語モデル(LLM)の画期的な能力として、文脈内学習が登場している。
両タイプの不確かさを定量化するための新しい定式化法とそれに対応する推定法を提案する。
提案手法は、プラグイン・アンド・プレイ方式でコンテキスト内学習の予測を理解するための教師なしの方法を提供する。
論文 参考訳(メタデータ) (2024-02-15T18:46:24Z) - Object-Centric Conformance Alignments with Synchronization (Extended
Version) [63.105872371236636]
対象中心のペトリネットが一対多の関係を捉える能力と,その同一性に基づいたオブジェクトの比較と同期を行う識別子を持つペトリネットの能力を組み合わせた,新たな形式主義を提案する。
我々は、満足度変調理論(SMT)の符号化に基づく、そのようなネットに対する適合性チェック手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T21:53:32Z) - Threshold-Consistent Margin Loss for Open-World Deep Metric Learning [42.03620337000911]
画像検索にDeep Metric Learning (DML) で使われている既存の損失は、しばしば非均一なクラス内およびクラス間表現構造に繋がる。
不整合はしばしば、商用画像検索システムを展開する際のしきい値選択過程を複雑にする。
クラス間の動作特性の分散を定量化するOPIS(Operating-Point-Inconsistency-Score)と呼ばれる,新しい分散に基づく尺度を提案する。
論文 参考訳(メタデータ) (2023-07-08T21:16:41Z) - Interpretable Automatic Fine-grained Inconsistency Detection in Text
Summarization [56.94741578760294]
本研究の目的は, 要約中の事実誤りの微粒化を予測し, 微粒化不整合検出の課題を提案することである。
要約における現実的不整合の検査方法に触発され,解析可能な微粒不整合検出モデルであるFinGrainFactを提案する。
論文 参考訳(メタデータ) (2023-05-23T22:11:47Z) - Parameterisation of Reasoning on Temporal Markov Logic Networks [2.9005223064604078]
我々は,その有効性を特定するために,時間間隔で拡張された知識グラフデータに注目した。
時間的マルコフ論理ネットワーク(TMLN)における最適A-Posteriori推論のための意味論の原理を提案する。
論文 参考訳(メタデータ) (2022-11-29T17:40:15Z) - Conformance Checking with Uncertainty via SMT (Extended Version) [66.58864135810981]
データ認識参照プロセスに対する不確実なログの適合性を確認する方法を示す。
我々のアプローチはモジュラーであり、異なるタイプの不確実性に均質に適合する。
本研究は,概念実証によるアプローチの正しさと実現可能性を示す。
論文 参考訳(メタデータ) (2022-06-15T11:39:45Z) - The Language Model Understood the Prompt was Ambiguous: Probing
Syntactic Uncertainty Through Generation [23.711953448400514]
このような分析に対して,ニューラルネットワークモデル(LM)がどの程度不確実性を示すかを調べる。
LMは複数の解析を同時に追跡できることがわかった。
曖昧な手がかりに対する応答として、LMは正しい解釈を選択することが多いが、時々エラーは改善の潜在的な領域を示す。
論文 参考訳(メタデータ) (2021-09-16T10:27:05Z) - Learning Implicitly with Noisy Data in Linear Arithmetic [94.66549436482306]
PAC-セマンティックスにおける暗黙学習を拡張し、線形算術の言語における間隔としきい値の不確実性を扱う。
最適線形プログラミング対象制約の学習に対する我々の暗黙的アプローチは、実際的な明示的アプローチよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2020-10-23T19:08:46Z) - Modeling Inter-Aspect Dependencies with a Non-temporal Mechanism for
Aspect-Based Sentiment Analysis [70.22725610210811]
アスペクト間の依存関係をモデル化することでABSAタスクを強化するための新しい非時間的メカニズムを提案する。
我々は、ABSAタスクにおけるよく知られたクラス不均衡の問題に注目し、適切に分類されたインスタンスに割り当てられた損失を下げて対処する。
論文 参考訳(メタデータ) (2020-08-12T08:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。