論文の概要: Executable Multi-Layered Software
- arxiv url: http://arxiv.org/abs/2501.08186v1
- Date: Tue, 14 Jan 2025 15:11:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-15 13:26:32.060322
- Title: Executable Multi-Layered Software
- Title(参考訳): Executable Multi-Layered Software
- Authors: Lukas Radosky, Ivan Polasek,
- Abstract要約: 本稿では,プロトタイプソフトウェアツールAnimArchに現れる新しいソフトウェア可視化とアニメーション手法を紹介する。
提案手法は静的モデルと動的モデルのモデル融合に基づいている。
AnimArchはまた、設計から実装へのギャップを埋めるために、Pythonへのソースコード生成も備えている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces a novel software visualisation and animation method, manifested in a prototype software tool - AnimArch. The introduced method is based on model fusion of static and dynamic models. The static model is represented by class diagram while the dynamic model is represented by source code written in high-level Object Action Language from xUML (executable UML). The class diagram defines architecture that is animated in response to real-time execution of the source code. Moreover, additional object diagram layer represents all object instances present in runtime. The AnimArch also features source code generation to Python, to bridge the gap from design to implementation. This paper provides detailed description of the modelling method and screenshots of the accompanying software tool.
- Abstract(参考訳): 本稿では,プロトタイプソフトウェアツールAnimArchに現れる新しいソフトウェア可視化とアニメーション手法を紹介する。
提案手法は静的モデルと動的モデルのモデル融合に基づいている。
静的モデルはクラス図で表現され、動的モデルはxUML (executable UML)から高レベルのObject Action Languageで書かれたソースコードで表現されます。
クラス図は、ソースコードのリアルタイム実行に応じてアニメーションされるアーキテクチャを定義します。
さらに、追加のオブジェクトダイアグラムレイヤは、ランタイムに存在するすべてのオブジェクトインスタンスを表します。
AnimArchはまた、設計から実装へのギャップを埋めるために、Pythonへのソースコード生成も備えている。
本稿では,関連するソフトウェアツールのモデリング方法とスクリーンショットについて詳述する。
関連論文リスト
- From Image to UML: First Results of Image Based UML Diagram Generation Using LLMs [1.961305559606562]
ソフトウェア工学のプロセスでは、システムはまずモデリング言語を使って指定される。
大規模言語モデル(LLM)は、与えられた図面からUMLモデルの形式表現を生成するために使用される。
より具体的には、クラス図の画像を画像に表される実際のモデルに変換するための異なるLCMの能力を評価した。
論文 参考訳(メタデータ) (2024-04-17T13:33:11Z) - StoryImager: A Unified and Efficient Framework for Coherent Story Visualization and Completion [78.1014542102578]
ストーリービジュアライゼーションは、ストーリーラインに基づいて現実的で一貫性のある画像を生成することを目的としている。
現在のモデルは、事前訓練されたテキストから画像へのモデルを自動回帰的な方法で変換することで、フレーム・バイ・フレームアーキテクチャを採用している。
双方向で統一的で効率的なフレームワーク,すなわちStoryImagerを提案する。
論文 参考訳(メタデータ) (2024-04-09T03:22:36Z) - Relax: Composable Abstractions for End-to-End Dynamic Machine Learning [19.79913796167022]
本稿では、エンドツーエンドの動的機械学習ワークロードを最適化するためのコンパイラ抽象化であるRelaxを紹介する。
Relaxは、プログラム全体にわたって動的形状の計算を追跡するために、第一級の記号型アノテーションを導入した。
動的形状モデルを最適化するために提案手法を用いて,エンドツーエンドのコンパイルフレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-01T23:03:59Z) - UnLoc: A Unified Framework for Video Localization Tasks [82.59118972890262]
UnLocは、未トリミングビデオにおける時間的ローカライズのための新しいアプローチである。
事前訓練された画像とテキストタワーを使用し、トークンをビデオテキスト融合モデルに供給する。
我々は,3つの異なるローカライゼーションタスクに対して,統一的なアプローチで成果を達成している。
論文 参考訳(メタデータ) (2023-08-21T22:15:20Z) - Diffusion Self-Guidance for Controllable Image Generation [106.59989386924136]
自己誘導(Self-guidance)は、拡散モデルの内部表現を導くことによって、生成された画像に対するより深い制御を提供する。
課題の画像操作を行うために、簡単なプロパティセットをいかに構成できるかを示す。
また,実画像の編集に自己指導が有効であることを示す。
論文 参考訳(メタデータ) (2023-06-01T17:59:56Z) - AI Illustrator: Translating Raw Descriptions into Images by Prompt-based
Cross-Modal Generation [61.77946020543875]
本稿では,複雑な意味論による生の記述を意味的に対応する画像に翻訳するフレームワークを提案する。
本フレームワークは,テキスト埋め込みから画像埋め込みへのプロンプトに基づくプロジェクションモジュールと,StyleGAN上に構築された適応画像生成モジュールの2つのコンポーネントから構成される。
本手法は,事前学習モデルに適合し,複雑な記述を処理でき,外部のペアデータを必要としない。
論文 参考訳(メタデータ) (2022-09-07T13:53:54Z) - From Things' Modeling Language (ThingML) to Things' Machine Learning
(ThingML2) [4.014524824655106]
我々はThingMLを拡張し、モデリングレベルで機械学習をサポートする。
当社のDSLでは、データ分析を行う責務を負うものを定義することができます。
コードジェネレータはJavaとPythonで完全な実装を自動的に生成できます。
論文 参考訳(メタデータ) (2020-09-22T15:44:57Z) - Object Files and Schemata: Factorizing Declarative and Procedural
Knowledge in Dynamical Systems [135.10772866688404]
モノリシックな隠蔽状態を持つブラックボックスモデルは、手続き的知識を一貫して均一に適用できないことが多い。
宣言的および手続き的知識を分解するアーキテクチャを通じてこの問題に対処する。
論文 参考訳(メタデータ) (2020-06-29T17:45:03Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。