論文の概要: A formalisation of BPMN in Description Logics
- arxiv url: http://arxiv.org/abs/2109.10716v1
- Date: Wed, 22 Sep 2021 13:17:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 17:45:34.369731
- Title: A formalisation of BPMN in Description Logics
- Title(参考訳): 記述論理におけるBPMNの形式化
- Authors: Chiara Ghidini, Marco Rospocher, Luciano Serafini
- Abstract要約: 本稿では、BPMN(Business Process Modelling Notation)の構造的コンポーネントについて、明確なセマンティックな形式化を提供する。
オントロジーの開発は、BPMN仕様のAnnex Bに含まれるBPMN要素属性と型の全セットの説明によって導かれた。
- 参考スコア(独自算出の注目度): 11.550524384837892
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present a textual description, in terms of Description
Logics, of the BPMN Ontology, which provides a clear semantic formalisation of
the structural components of the Business Process Modelling Notation (BPMN),
based on the latest stable BPMN specifications from OMG [BPMN Version 1.1 --
January 2008]. The development of the ontology was guided by the description of
the complete set of BPMN Element Attributes and Types contained in Annex B of
the BPMN specifications.
- Abstract(参考訳): 本稿では、BPMNオントロジーの記述論理(Description Logics)の観点から、OMG(BPMN Version 1.1 - 2008)の最新の安定したBPMN仕様に基づいて、BPMN(Business Process Modelling Notation)の構造的コンポーネントの明確なセマンティックな形式化を提供する。
オントロジーの開発は、BPMN仕様のAnnex Bに含まれるBPMN要素属性と型の全セットの説明によって導かれた。
関連論文リスト
- Document Structure in Long Document Transformers [64.76981299465885]
長い文書は、しばしばセクションヘッダーや段落のような異なる機能で階層的に整理された要素を持つ構造を示す。
文書構造の不明瞭さにもかかわらず、自然言語処理(NLP)におけるその役割はいまだに不透明である。
長期文書変換モデルは事前学習中に文書構造の内部表現を取得するか?
事前トレーニング後に構造情報をモデルに伝達するにはどうすればよいのか、下流のパフォーマンスにどのように影響するのか?
論文 参考訳(メタデータ) (2024-01-31T08:28:06Z) - Belief Propagation Decoding of Quantum LDPC Codes with Guided Decimation [54.30748817277323]
BP Guided decimation (BPGD) を用いたQLDPC符号の復号化を提案する。
BPGDは非収束性によるBP障害を著しく減少させる。
誤差収束の確率は低く、BP-OSDやBP-SIと同等の性能を発揮する。
論文 参考訳(メタデータ) (2023-12-18T05:58:07Z) - A higher-order transformation approach to the formalization and analysis
of BPMN using graph transformation systems [1.1606619391009658]
本稿ではBPMNの実行セマンティクスの形式化を提案する。
私たちのアプローチは、BPMNモデルからグラフ変換システムへの高次の変換に基づいています。
このアプローチの能力を示すため、オープンソースのWebベースツールとして実装しました。
論文 参考訳(メタデータ) (2023-11-09T09:55:10Z) - Deep Stochastic Processes via Functional Markov Transition Operators [59.55961312230447]
本稿では,ニューラルパラメータ化マルコフ遷移作用素の列を関数空間に重ねて構築した新しいプロセス群(SP)を紹介する。
これらのマルコフ遷移作用素は、SPの交換可能性と整合性を維持することができることを証明している。
論文 参考訳(メタデータ) (2023-05-24T21:15:23Z) - Un mod{\`e}le de base de connaissances terminologiques [0.0]
用語知識ベース(TKB)は,形式的基準を満たさないため,様々なニーズに対処する上で有用である。
我々は,用語,概念,テキストという3つのリンクされた特徴を含むTKB構造を設計した。
論文 参考訳(メタデータ) (2023-02-16T10:28:23Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - PVS Embeddings of Propositional and Quantified Modal Logic [0.0]
本稿では,PVS検証システムにおける命題論理と量子化論理の埋め込みについて述べる。
PVSのリソースは、モーダル論理の標準的な構文の多くをサポートする魅力的な方法でこれを行うことができる。
論文 参考訳(メタデータ) (2022-05-12T22:44:29Z) - CoPHE: A Count-Preserving Hierarchical Evaluation Metric in Large-Scale
Multi-Label Text Classification [70.554573538777]
ニューラルLMTCモデルの予測の階層的評価について論じる。
先行技術における構造化ラベル空間の表現における構造的問題について述べる。
深度に基づく表現を用いた階層的評価のための指標セットを提案する。
論文 参考訳(メタデータ) (2021-09-10T13:09:12Z) - A Rational Entailment for Expressive Description Logics via Description
Logic Programs [3.198144010381572]
我々は、表現的記述論理(DL)のための合理的なエンテーメントのモデル化方法を示す。
非単調なDL知識ベースを記述論理プログラム(dlプログラム)にコンパイルする。
論文 参考訳(メタデータ) (2021-06-28T14:35:42Z) - A conditional, a fuzzy and a probabilistic interpretation of
self-organising maps [0.0]
記述論理の優先意味論と自己組織化マップとのリンクを確立する。
本研究では,SOMの論理的解釈に概念的マルチプレファレンスセマンティクスが利用できることを示した。
論文 参考訳(メタデータ) (2021-03-11T18:31:00Z) - Document-level Neural Machine Translation with Document Embeddings [82.4684444847092]
この研究は、複数の形式の文書埋め込みの観点から、詳細な文書レベルのコンテキストを活用することに重点を置いている。
提案する文書認識NMTは,大域的および局所的な文書レベルの手がかりをソース端に導入することにより,Transformerベースラインを強化するために実装されている。
論文 参考訳(メタデータ) (2020-09-16T19:43:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。