論文の概要: Uncertainty Modeling for SysML v2
- arxiv url: http://arxiv.org/abs/2602.21641v1
- Date: Wed, 25 Feb 2026 07:10:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.737849
- Title: Uncertainty Modeling for SysML v2
- Title(参考訳): SysML v2の不確実性モデリング
- Authors: Man Zhang, Yunyang Li, Tao Yue,
- Abstract要約: 不確かさは現代の技術システムに固有のものである。
本稿では,PSUMメタモデルをモデリングフレームワークに組み込んだSysML v2の体系的拡張を提案する。
- 参考スコア(独自算出の注目度): 5.36666921975241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty is inherent in modern engineered systems, including cyber-physical systems, autonomous systems, and large-scale software-intensive infrastructures (such as microservice-based systems) operating in dynamic and partially observable environments. The recent publication of Precise Semantics for Uncertainty Modeling (PSUM) by the Object Management Group represents the first standardized specification for uncertainty modeling within the Model-Based Systems Engineering (MBSE) community, providing formally defined semantics for representing and reasoning about uncertainty in models. In parallel, the second version of Systems Modeling Language (SysML v2) was released as the next-generation systems modeling language, offering improved semantic rigor and reusability, yet lacking native constructs aligned with PSUM for first-class uncertainty representation. This paper proposes a systematic extension of SysML v2 that incorporates the PSUM metamodel into its modeling framework. The extension enables explicit specification of indeterminacy sources, structured characterization of uncertainties, and consistent propagation of uncertainty within system models, while preserving conformance with SysML v2 syntax and semantics. We validate the approach through seven case studies. Results demonstrate that the proposed extension (PSUM-SysMLv2) is expressive and applicable for uncertainty-aware MBSE, and potentially enables uncertainty and uncertainty propagation analyses.
- Abstract(参考訳): 不確実性は、サイバー物理システム、自律システム、動的かつ部分的に観測可能な環境で運用される大規模ソフトウェア集約型インフラストラクチャ(マイクロサービスベースシステムなど)など、現代のエンジニアリングシステムに固有のものだ。
Object Management Groupが最近発表したPrecise Semantics for Uncertainty Modeling (PSUM)は、モデルベースシステムエンジニアリング(MBSE)コミュニティにおける不確実性モデリングのための最初の標準化された仕様であり、モデルにおける不確実性を表現するための公式なセマンティクスを提供する。
並行して、システムモデリング言語(SysML v2)の第2バージョンが次世代のシステムモデリング言語としてリリースされた。
本稿では,PSUMメタモデルをモデリングフレームワークに組み込んだSysML v2の体系的拡張を提案する。
この拡張は、SysML v2の構文とセマンティクスに準拠したまま、不確定性ソースの明示的な仕様、不確実性の構造的特徴、システムモデル内での不確実性の一貫した伝播を可能にする。
このアプローチを7つのケーススタディで検証する。
その結果,提案した拡張(PSUM-SysMLv2)は不確実性を考慮したMBSEに適用可能であり,不確実性および不確実性伝搬解析を可能にする可能性が示唆された。
関連論文リスト
- D-Models and E-Models: Diversity-Stability Trade-offs in the Sampling Behavior of Large Language Models [91.21455683212224]
大規模言語モデル(LLMs)では、次の情報の関連性確率は、次の製品の関連性確率に関連付けられる。
しかし、きめ細かいサンプリング確率がタスク要求に忠実に適合するかどうかは未解決の問題だ。
P_tokenが大きなステップ・ツー・ステップの変動を示し、P_taskとの整合性が低いDモデルと、P_tokenがより安定してP_taskに整合するEモデルである。
論文 参考訳(メタデータ) (2026-01-25T14:59:09Z) - LLM-Assisted Semantic Alignment and Integration in Collaborative Model-Based Systems Engineering Using SysML v2 [7.19300892392172]
本稿では,LLMを用いたSysML v2モデルのセマンティックアライメントのための構造化,即時駆動型アプローチを提案する。
このアプローチでは、エイリアス、インポート、メタデータ拡張などのSysML v2コンストラクトを活用して、トレーサビリティとソフトアライメントの統合をサポートする。
論文 参考訳(メタデータ) (2025-08-22T07:56:33Z) - A System Model Generation Benchmark from Natural Language Requirements [29.820716110232553]
今回紹介するSysMBenchは,広く普及しているドメインにまたがる151の人間計算シナリオで構成されている。
各シナリオは、主に自然言語要求記述、特定のモデル記述言語で表現されたシステムモデル、可視化されたシステムモデル図で構成されます。
生成したシステムモデルの品質を評価するためのセマンティック・アウェア評価指標であるSysMEvalを紹介する。
論文 参考訳(メタデータ) (2025-08-05T08:45:19Z) - A statistically consistent measure of semantic uncertainty using Language Models [3.4933610074113464]
本稿では,意味的不確実性,意味的スペクトルエントロピーの新たな尺度を提案する。
この尺度は、標準の事前訓練された言語モデルのみに依存する単純なアルゴリズムによって実装される。
論文 参考訳(メタデータ) (2025-02-01T17:55:58Z) - Longhorn: State Space Models are Amortized Online Learners [51.10124201221601]
ステートスペースモデル(SSM)は、トレーニング中に並列性を維持しながら線形デコード効率を提供する。
本研究では、オンライン学習のレンズを通してSSM設計を探求し、特定のオンライン学習問題のメタモジュールとしてSSMを概念化する。
我々は、オンライン連想的リコール問題を解決するためのクローズドフォームソリューションに類似した、新しいディープSSMアーキテクチャであるLonghornを紹介した。
論文 参考訳(メタデータ) (2024-07-19T11:12:08Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Uncertainty-aware predictive modeling for fair data-driven decisions [5.371337604556311]
フェアMLシステムは安全なMLシステムであることを示す。
公平な判断については、不確実な分類を持つ個人に対して、安全なフェールオプションを使用することを議論する。
論文 参考訳(メタデータ) (2022-11-04T20:04:39Z) - At the Intersection of Deep Sequential Model Framework and State-space
Model Framework: Study on Option Pricing [2.3224617218247126]
非線形力学系の推論と予測問題は様々な文脈で発生してきた。
深層シーケンシャルモデルと状態空間モデルの両方を統一し、両方のフレームワークの優位性を実現するモデルを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:21:41Z) - SMT-based Safety Verification of Parameterised Multi-Agent Systems [78.04236259129524]
パラメータ化マルチエージェントシステム(MAS)の検証について検討する。
特に、与えられた状態公式として特徴づけられる不要な状態が、所定のMASで到達可能かどうかについて検討する。
論文 参考訳(メタデータ) (2020-08-11T15:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。