論文の概要: Enterprise Architecture Model Transformation Engine
- arxiv url: http://arxiv.org/abs/2108.13169v1
- Date: Sun, 15 Aug 2021 11:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-05 08:52:20.773267
- Title: Enterprise Architecture Model Transformation Engine
- Title(参考訳): エンタープライズアーキテクチャモデル変換エンジン
- Authors: Erik Heiland, Peter Hillmann, Andreas Karcher
- Abstract要約: 本稿では,エンタープライズアーキテクチャモデルを複数の言語間で変換する変換エンジンを提案する。
変換プロセスはルールベースの記述言語を用いて様々なパターンマッチング手法によって定義される。
集合論と一階述語論理を基礎として直観的な記述に用いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With increasing linkage within value chains, the IT systems of different
companies are also being connected with each other. This enables the
integration of services within the movement of Industry 4.0 in order to improve
the quality and performance of the processes. Enterprise architecture models
form the basis for this with a better buisness IT-alignment. However, the
heterogeneity of the modeling frameworks and description languages makes a
concatenation considerably difficult, especially differences in syntax,
semantic and relations. Therefore, this paper presents a transformation engine
to convert enterprise architecture models between several languages. We
developed the first generic translation approach that is free of specific
meta-modeling, which is flexible adaptable to arbitrary modeling languages. The
transformation process is defined by various pattern matching techniques using
a rule-based description language. It uses set theory and first-order logic for
an intuitive description as a basis. The concept is practical evaluated using
an example in the area of a large German IT-service provider. Anyhow, the
approach is applicable between a wide range of enterprise architecture
frameworks.
- Abstract(参考訳): バリューチェーン内のリンクの増加に伴い、異なる企業のITシステムも相互に接続されている。
これにより、プロセスの品質とパフォーマンスを改善するために、業界4.0の動きにおけるサービスの統合が可能になる。
エンタープライズアーキテクチャモデルは、よりよいビジネスITアライメントによって、この基盤を形成します。
しかし、モデリングフレームワークと記述言語の多様性は、特に構文、意味、関係の相違など、結合をかなり困難にしている。
そこで本稿では,エンタープライズアーキテクチャモデルを複数の言語間で変換する変換エンジンを提案する。
我々は、任意のモデリング言語に柔軟に対応可能な、特定のメタモデリングを含まない最初のジェネリック翻訳手法を開発した。
変換プロセスはルールベースの記述言語を用いて様々なパターンマッチング手法によって定義される。
集合論と一階述語論理を基礎として直観的記述に用いる。
この概念は、大規模なドイツのitサービスプロバイダの例を使って実践的に評価される。
いずれにせよ、このアプローチは幅広いエンタープライズアーキテクチャフレームワークの間で適用できます。
関連論文リスト
- UQE: A Query Engine for Unstructured Databases [71.49289088592842]
構造化されていないデータ分析を可能にするために,大規模言語モデルの可能性を検討する。
本稿では,非構造化データ収集からの洞察を直接問合せ,抽出するUniversal Query Engine (UQE)を提案する。
論文 参考訳(メタデータ) (2024-06-23T06:58:55Z) - SymbolicAI: A framework for logic-based approaches combining generative models and solvers [9.841285581456722]
生成過程における概念学習とフロー管理に論理的アプローチを取り入れた,汎用的でモジュール化されたフレームワークであるSybolicAIを紹介する。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - Enterprise Model Library for Business-IT-Alignment [0.0]
この作業は、再利用の関数を持つモデルのためのリポジトリの参照アーキテクチャである。
これには、ファイリング用のデータ構造の設計、管理のためのプロセス、使用可能性が含まれる。
論文 参考訳(メタデータ) (2022-11-21T11:36:54Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z) - E.T.: Entity-Transformers. Coreference augmented Neural Language Model
for richer mention representations via Entity-Transformer blocks [3.42658286826597]
本稿では,ニューラルネットワークモデル,特にGPT2におけるTransformer-blockアーキテクチャの拡張について述べる。
我々のモデルであるGPT2Eは、GPT2のトランスフォーマー層アーキテクチャをEntity-Transformersに拡張しています。
論文 参考訳(メタデータ) (2020-11-10T22:28:00Z) - Neural Entity Linking: A Survey of Models Based on Deep Learning [82.43751915717225]
本調査では,2015年以降に開発されたニューラルエンティティリンク(EL)システムの包括的記述について報告する。
その目標は、ニューラルエンティティリンクシステムの設計機能を体系化し、それらのパフォーマンスを一般的なベンチマーク上の注目すべき古典的手法と比較することである。
この調査はエンティティリンクの応用に焦点をあて、最近出現した、深い事前訓練されたマスキング言語モデルを強化するユースケースに焦点を当てている。
論文 参考訳(メタデータ) (2020-05-31T18:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。