論文の概要: EATXT: A textual concrete syntax for EAST-ADL
- arxiv url: http://arxiv.org/abs/2407.09895v1
- Date: Sat, 13 Jul 2024 14:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 20:18:01.905992
- Title: EATXT: A textual concrete syntax for EAST-ADL
- Title(参考訳): EATXT:EAST-ADLのためのテキスト具体的な構文
- Authors: Weixing Zhang, Jörg Holtmann, Daniel Strüber, Jan-Philipp Steghöfer,
- Abstract要約: 本稿では,EAST-ADLを用いた自動車アーキテクチャモデリング用エディタであるEATXTを紹介する。
EATXTエディタはXtextをベースにしており、コンテンツアシストやシリアライゼーションの改善など、基本的な機能と高度な機能を提供している。
本稿では, 編集機能とアーキテクチャ, 実装アプローチ, EATXT の以前の利用について述べる。
- 参考スコア(独自算出の注目度): 5.34855193340848
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Blended modeling is an approach that enables users to interact with a model via multiple notations. In this context, there is a growing need for open-source industry-grade exemplars of languages with available language engineering artifacts, in particular, editors and notations for supporting the creation of models based on a single metamodel in different representations (e.g., textual, graphical, and tabular ones). These exemplars can support the development of advanced solutions to address the practical challenges posed by blended modeling requirements. As one such exemplar, this paper introduces EATXT, a textual concrete syntax for automotive architecture modeling with EAST-ADL, developed in cooperation with an industry partner in the automotive domain. The EATXT editor is based on Xtext and provides basic and advanced features, such as an improved content-assist and serialization specifically addressing blended modeling requirements. We present the editor features and architecture, the implementation approach, and previous use of EATXT in research. The EATXT editor is publicly available, rendering it a valuable resource for language developers.
- Abstract(参考訳): ブレンドモデリング(Blended Modeling)は、複数の表記法でモデルと対話できるアプローチである。
この文脈では、利用可能な言語工学のアーティファクトを持つオープンソースの業界グレードの言語、特に、異なる表現(テキスト、グラフィカル、表形式など)で単一のメタモデルに基づいたモデルの作成をサポートするためのエディタと表記の必要性がますます高まっている。
これらの例は、ブレンドされたモデリング要求によって引き起こされる現実的な課題に対処するために、高度なソリューションの開発を支援することができる。
本稿では,EAST-ADL を用いた自動車アーキテクチャモデリングのためのテキスト構文である EATXT について紹介する。
EATXTエディタはXtextをベースにしており、コンテンツアシストの改善や、ブレンドされたモデリング要求に特に対処するシリアライゼーションなど、基本的な機能と高度な機能を提供する。
本稿では, 編集機能とアーキテクチャ, 実装アプローチ, EATXT の以前の利用について述べる。
EATXTエディタは公開されており、言語開発者にとって貴重なリソースとなっている。
関連論文リスト
- Raw Text is All you Need: Knowledge-intensive Multi-turn Instruction Tuning for Large Language Model [25.459787361454353]
本稿では,対話論理のCoD-Chainを利用して,多言語モデル(LLM)を指導指導のための知識集約型多元対話を生成する新しいフレームワークR2Sを提案する。
オープンソースデータセットとドメイン固有のWebcrawledドキュメントの両方の生文書をベンチマークK-BENCHに統合することにより、Wikipedia(英語)、Science(中国語)、Artifacts(中国語)などのさまざまな領域をカバーする。
論文 参考訳(メタデータ) (2024-07-03T12:04:10Z) - MetaDesigner: Advancing Artistic Typography through AI-Driven, User-Centric, and Multilingual WordArt Synthesis [65.78359025027457]
MetaDesignerは、Large Language Models(LLM)の強みを活用して、ユーザエンゲージメントを中心としたデザインパラダイムを推進することによって、芸術的なタイポグラフィに革命をもたらす。
総合的なフィードバックメカニズムは、マルチモーダルモデルとユーザ評価からの洞察を活用して、設計プロセスを反復的に洗練し、拡張する。
実証的な検証は、MetaDesignerが様々なWordArtアプリケーションに効果的に機能し、審美的に魅力的でコンテキストに敏感な結果を生み出す能力を強調している。
論文 参考訳(メタデータ) (2024-06-28T11:58:26Z) - AnyTrans: Translate AnyText in the Image with Large Scale Models [88.5887934499388]
本稿では、画像中のタスク翻訳AnyText(TATI)のためのオール・エンコンパス・フレームワークであるAnyTransを紹介する。
我々のフレームワークは、翻訳中にテキスト要素と視覚要素の両方から文脈的手がかりを取り入れている。
6つの言語対の多言語テキスト画像翻訳データからなるMTIT6というテストデータセットを精巧にコンパイルした。
論文 参考訳(メタデータ) (2024-06-17T11:37:48Z) - Unitxt: Flexible, Shareable and Reusable Data Preparation and Evaluation
for Generative AI [15.220987187105607]
Unitxtは、生成言語モデルに適した、カスタマイズ可能なテキストデータ準備と評価のための革新的なライブラリである。
UnitxtはHFaceやLM-eval-harnessといった一般的なライブラリと統合されており、実践者間のカスタマイズや共有が容易である。
Unitxtは、ツール以外にも、コミュニティ主導のプラットフォームで、ユーザがパイプラインを構築し、共有し、前進することを可能にする。
論文 参考訳(メタデータ) (2024-01-25T08:57:33Z) - Technical Report: Unresolved Challenges and Potential Features in EATXT [0.0]
この文書は、EATXTに追加される可能性のある潜在的な高度な機能を記述する技術的レポートである。
本報告の目的は、関連する技術的課題の理解を共有し、潜在的に関心のある仲間を支援することである。
論文 参考訳(メタデータ) (2023-12-15T22:45:17Z) - Towards Automated Support for the Co-Evolution of Meta-Models and
Grammars [0.0]
我々はメタモデルに基づくモデル駆動工学(MDE)アプローチに焦点をあて、テキスト言語を開発する。
本稿ではメタモデルと文法の共進化を支援する手法を提案する。
論文 参考訳(メタデータ) (2023-12-10T23:34:07Z) - TextDiffuser-2: Unleashing the Power of Language Models for Text
Rendering [118.30923824681642]
TextDiffuser-2は、テキストレンダリングのための言語モデルのパワーを解き放つことを目的としている。
拡散モデル内の言語モデルを用いて,行レベルでの位置とテキストを符号化する。
我々は広範な実験を行い、GPT-4Vと同様に、ヒトの参加者を含むユーザスタディを取り入れた。
論文 参考訳(メタデータ) (2023-11-28T04:02:40Z) - Conceptual Model Interpreter for Large Language Models [0.0]
本稿では,コード生成と解釈を概念モデルに適用する。
概念モデルインタプリタの概念とプロトタイプについて検討する。
以上の結果から,会話形式で反復的にモデリングできる可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-11T09:41:37Z) - TextBind: Multi-turn Interleaved Multimodal Instruction-following in the Wild [102.93338424976959]
マルチターンインターリーブ型インストラクションフォロー機能を備えた,より大規模な言語モデルを実現するための,ほとんどアノテーションのないフレームワークであるTextBindを紹介する。
提案手法では,画像キャプチャペアのみが必要であり,言語モデルからマルチターンマルチモーダル・インストラクション・レスポンス・会話を生成する。
そこで我々は,画像エンコーダとデコーダモデルをシームレスに統合する言語モデル中心アーキテクチャであるMIMを考案した。
論文 参考訳(メタデータ) (2023-09-14T15:34:01Z) - Generating Images with Multimodal Language Models [78.6660334861137]
本稿では,凍結したテキストのみの大規模言語モデルを,事前学習した画像エンコーダとデコーダモデルで融合する手法を提案する。
本モデルでは,画像検索,新しい画像生成,マルチモーダル対話など,多モーダルな機能群を示す。
論文 参考訳(メタデータ) (2023-05-26T19:22:03Z) - VX2TEXT: End-to-End Learning of Video-Based Text Generation From
Multimodal Inputs [103.99315770490163]
本稿では,ビデオ+テキスト,音声,音声によるマルチモーダル入力からテキストを生成するフレームワークを提案する。
実験により、一つのアーキテクチャに基づくアプローチは、3つのビデオベースのテキスト生成タスクにおいて最先端のタスクより優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T15:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。