論文の概要: Incremental Model Transformations with Triple Graph Grammars for
Multi-version Models
- arxiv url: http://arxiv.org/abs/2307.02105v2
- Date: Fri, 7 Jul 2023 12:49:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:13:23.730057
- Title: Incremental Model Transformations with Triple Graph Grammars for
Multi-version Models
- Title(参考訳): マルチバージョンモデルのためのトリプルグラフ文法を用いたインクリメンタルモデル変換
- Authors: Matthias Barkowsky and Holger Giese
- Abstract要約: 本稿では,ソースモデルの複数バージョンを対象モデルの対応するバージョンに変換する手法を提案する。
我々のアプローチは、トリプルグラフ文法のよく知られた形式主義と、マルチバージョンモデルと呼ばれるモデルバージョン履歴の符号化に基づいている。
- 参考スコア(独自算出の注目度): 1.6371451481715191
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Like conventional software projects, projects in model-driven software
engineering require adequate management of multiple versions of development
artifacts, importantly allowing living with temporary inconsistencies. In
previous work, multi-version models for model-driven software engineering have
been introduced, which allow checking well-formedness and finding merge
conflicts for multiple versions of a model at once. However, also for
multi-version models, situations where different artifacts, that is, different
models, are linked via automatic model transformations have to be handled.
In this paper, we propose a technique for jointly handling the transformation
of multiple versions of a source model into corresponding versions of a target
model, which enables the use of a more compact representation that may afford
improved execution time of both the transformation and further analysis
operations. Our approach is based on the well-known formalism of triple graph
grammars and the aforementioned encoding of model version histories called
multi-version models. In addition to batch transformation of an entire model
version history, the technique also covers incremental synchronization of
changes in the framework of multi-version models.
We show the correctness of our approach with respect to the standard
semantics of triple graph grammars and conduct an empirical evaluation to
investigate the performance of our technique regarding execution time and
memory consumption. Our results indicate that the proposed technique affords
lower memory consumption and may improve execution time for batch
transformation of large version histories, but can also come with computational
overhead in unfavorable cases.
- Abstract(参考訳): 従来のソフトウェアプロジェクトと同様に、モデル駆動ソフトウェアエンジニアリングのプロジェクトは、開発成果物の複数のバージョンを適切に管理する必要があります。
以前の作業では、モデル駆動ソフトウェアエンジニアリングのためのマルチバージョンモデルが導入されており、うまく形づくりをチェックでき、一度に複数のバージョンのモデルのマージコンフリクトを見つけることができる。
しかし、マルチバージョンモデルについても、異なるアーティファクト、すなわち異なるモデルが自動モデル変換を介してリンクされる状況を扱う必要がある。
本稿では,ソースモデルの複数バージョンを対象モデルの対応するバージョンに変換するための共同処理手法を提案する。
我々のアプローチは、トリプルグラフ文法のよく知られた形式主義と、前述のマルチバージョンモデルと呼ばれるモデルバージョン履歴の符号化に基づいている。
モデルバージョン履歴全体のバッチ変換に加えて、マルチバージョンモデルのフレームワークにおける変更の漸進的同期もカバーしている。
本稿では,三重グラフ文法の標準的な意味論に対するアプローチの正しさを示し,実行時間とメモリ消費に関する手法の性能を実証的に評価する。
提案手法はメモリ消費を低減し,大規模なバージョン履歴のバッチ変換の実行時間を改善できるが,不都合なケースでは計算オーバーヘッドも生じる可能性がある。
関連論文リスト
- Design Patterns for Multilevel Modeling and Simulation [3.0248879829045383]
マルチレベルモデリングとシミュレーション(M&S)は、この方法論がもたらす利点により、ますます関連性が高まっている。
本稿では,多段階モデルの設計と実装のための体系的なアプローチを提供する設計パターンの集合について述べる。
論文 参考訳(メタデータ) (2024-03-25T12:51:22Z) - Merging Text Transformer Models from Different Initializations [7.768975909119287]
異なるTransformer minimaが類似した特徴を学習する程度について検討する。
損失景観におけるこれらのミニマの関係を調べるためのモデルマージ手法を提案する。
以上の結果から,これらのモデルのミニマは従来理解されていたよりもシャープで孤立していないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-01T21:16:29Z) - MGit: A Model Versioning and Management System [7.2678752235785735]
MGitはモデルバージョニングと管理システムであり、モデルデリバティブの保存、テスト、更新、コラボレーションを容易にする。
MGitは、ライングラフのストレージフットプリントを最大7倍に削減し、アップストリームモデルの更新に応じて、ダウンストリームモデルを自動的に更新する。
論文 参考訳(メタデータ) (2023-07-14T17:56:48Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Exploring and Evaluating Personalized Models for Code Generation [9.25440316608194]
パーソナライズのための変換器モデルの微調整を評価する。
i) すべてのモデルパラメータをチューニングできるカスタム微調整。
コード生成のためのこれらの微調整戦略を比較し、様々なデプロイメントシナリオにおいて、それぞれの潜在的な一般化とコスト効果について議論する。
論文 参考訳(メタデータ) (2022-08-29T23:28:46Z) - Twist Decoding: Diverse Generators Guide Each Other [116.20780037268801]
様々なモデルの恩恵を受けながらテキストを生成するシンプルで一般的な推論アルゴリズムであるTwist decodingを導入する。
我々の方法は、語彙、トークン化、あるいは生成順序が共有されていると仮定しない。
論文 参考訳(メタデータ) (2022-05-19T01:27:53Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z) - Merlion: A Machine Learning Library for Time Series [73.46386700728577]
Merlionは時系列のためのオープンソースの機械学習ライブラリである。
モデルの統一インターフェースと、異常検出と予測のためのデータセットを備えている。
Merlionはまた、本番環境でのモデルのライブデプロイメントと再トレーニングをシミュレートするユニークな評価フレームワークも提供する。
論文 参考訳(メタデータ) (2021-09-20T02:03:43Z) - DirectDebug: Automated Testing and Debugging of Feature Models [55.41644538483948]
変数モデル(例えば、特徴モデル)は、ソフトウェアアーティファクトの変数と共通性を表現する一般的な方法である。
複雑でしばしば大規模な機能モデルは欠陥になりうる、すなわち、ソフトウェアアーチファクトの期待される変動特性を表現しない。
論文 参考訳(メタデータ) (2021-02-11T11:22:20Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [55.28436972267793]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。