論文の概要: LLM-Assisted Semantic Alignment and Integration in Collaborative Model-Based Systems Engineering Using SysML v2
- arxiv url: http://arxiv.org/abs/2508.16181v1
- Date: Fri, 22 Aug 2025 07:56:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.300274
- Title: LLM-Assisted Semantic Alignment and Integration in Collaborative Model-Based Systems Engineering Using SysML v2
- Title(参考訳): SysML v2を用いた協調モデルベースシステム工学におけるLLM支援セマンティックアライメントと統合
- Authors: Zirui Li, Stephan Husung, Haoze Wang,
- Abstract要約: 本稿では,LLMを用いたSysML v2モデルのセマンティックアライメントのための構造化,即時駆動型アプローチを提案する。
このアプローチでは、エイリアス、インポート、メタデータ拡張などのSysML v2コンストラクトを活用して、トレーサビリティとソフトアライメントの統合をサポートする。
- 参考スコア(独自算出の注目度): 7.19300892392172
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-organizational collaboration in Model-Based Systems Engineering (MBSE) faces many challenges in achieving semantic alignment across independently developed system models. SysML v2 introduces enhanced structural modularity and formal semantics, offering a stronger foundation for interoperable modeling. Meanwhile, GPT-based Large Language Models (LLMs) provide new capabilities for assisting model understanding and integration. This paper proposes a structured, prompt-driven approach for LLM-assisted semantic alignment of SysML v2 models. The core contribution lies in the iterative development of an alignment approach and interaction prompts, incorporating model extraction, semantic matching, and verification. The approach leverages SysML v2 constructs such as alias, import, and metadata extensions to support traceable, soft alignment integration. It is demonstrated with a GPT-based LLM through an example of a measurement system. Benefits and limitations are discussed.
- Abstract(参考訳): モデルベースシステムエンジニアリング(MBSE)における組織間コラボレーションは、独立して開発されたシステムモデル間のセマンティックアライメントを達成する上で、多くの課題に直面します。
SysML v2は、構造的なモジュール化と形式的なセマンティクスを導入し、相互運用可能なモデリングのためのより強力な基盤を提供する。
一方、GPTベースのLarge Language Models(LLM)は、モデルの理解と統合を支援するための新しい機能を提供する。
本稿では,LLMを用いたSysML v2モデルのセマンティックアライメントのための構造化,即時駆動型アプローチを提案する。
中心的な貢献は、アライメントアプローチとインタラクションプロンプトの反復的な開発であり、モデル抽出、セマンティックマッチング、検証を取り入れている。
このアプローチでは、エイリアス、インポート、メタデータ拡張などのSysML v2コンストラクトを活用して、トレーサビリティとソフトアライメントの統合をサポートする。
測定システムの例を通して, GPT を用いた LLM を用いて実演する。
利点と限界が議論される。
関連論文リスト
- Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - From over-reliance to smart integration: using Large-Language Models as translators between specialized modeling and simulation tools [0.3749861135832073]
大規模言語モデル(LLM)はモデリングとシミュレーション(M&S)に変革をもたらす
過信リスクは曖昧さ、論理的ショートカット、幻覚によって品質を損なう。
本稿では,M&Sタスクにおける複雑性を軽減するため,特殊なツール間でLLMを翻訳器として統合することを提唱する。
論文 参考訳(メタデータ) (2025-06-11T02:39:08Z) - Unifying Multimodal Large Language Model Capabilities and Modalities via Model Merging [103.98582374569789]
モデルマージは、複数のエキスパートモデルを単一のモデルにまとめることを目的としており、ストレージとサービスコストを削減している。
これまでの研究は主に、コードと数学のタスクに視覚分類モデルやLLM(Large Language Models)を統合することに焦点を当ててきた。
本稿では,VQA,Geometry,Chart,OCR,Gundingといった複数のタスクを含むMLLMのモデルマージベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-05-26T12:23:14Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [50.19188692497892]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - AdaMMS: Model Merging for Heterogeneous Multimodal Large Language Models with Unsupervised Coefficient Optimization [86.8133939108057]
異種MLLMに適した新しいモデルマージ手法であるAdaMMSを提案する。
提案手法は,マッピング,マージ,検索という3段階の課題に対処する。
ラベル付きデータ無しで異種MLLMをマージできる最初のモデルマージ手法として、AdaMMSは様々なビジョンベンチマークで過去のモデルマージ手法より優れている。
論文 参考訳(メタデータ) (2025-03-31T05:13:02Z) - LLM-TS Integrator: Integrating LLM for Enhanced Time Series Modeling [5.853711797849859]
天気予報や異常検出などの動的システムでは時系列モデリングが不可欠である。
近年,大規模言語モデル(LLM)をTSモデリングに利用し,その強力なパターン認識機能を活用している。
論文 参考訳(メタデータ) (2024-10-21T20:29:46Z) - Model Composition for Multimodal Large Language Models [71.5729418523411]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。