論文の概要: Requirements-driven Slicing of Simulink Models Using LLMs
- arxiv url: http://arxiv.org/abs/2405.01695v1
- Date: Thu, 2 May 2024 19:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-06 14:44:38.536403
- Title: Requirements-driven Slicing of Simulink Models Using LLMs
- Title(参考訳): LLMを用いたシミュリンクモデルの要求駆動スライシング
- Authors: Dipeeka Luitel, Shiva Nejati, Mehrdad Sabetzadeh,
- Abstract要約: グラフィカルシミュリンクモデルからモデルスライスを抽出する大規模言語モデル(LLM)に基づく手法を提案する。
我々は、Simulinkモデルをテキスト表現に変換する際の粒度(バービシティ)の異なるレベルと、LCMを誘導する戦略が、生成されたスライスの精度にどのように影響するかを考察する。
- 参考スコア(独自算出の注目度): 4.670347587555517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model slicing is a useful technique for identifying a subset of a larger model that is relevant to fulfilling a given requirement. Notable applications of slicing include reducing inspection effort when checking design adequacy to meet requirements of interest and when conducting change impact analysis. In this paper, we present a method based on large language models (LLMs) for extracting model slices from graphical Simulink models. Our approach converts a Simulink model into a textual representation, uses an LLM to identify the necessary Simulink blocks for satisfying a specific requirement, and constructs a sound model slice that incorporates the blocks identified by the LLM. We explore how different levels of granularity (verbosity) in transforming Simulink models into textual representations, as well as the strategy used to prompt the LLM, impact the accuracy of the generated slices. Our preliminary findings suggest that prompts created by textual representations that retain the syntax and semantics of Simulink blocks while omitting visual rendering information of Simulink models yield the most accurate slices. Furthermore, the chain-of-thought and zero-shot prompting strategies result in the largest number of accurate model slices produced by our approach.
- Abstract(参考訳): モデルスライシングは、与えられた要求を満たすことに関連するより大きなモデルのサブセットを特定するのに有用なテクニックである。
特筆すべきスライシングの応用としては、関心事の要件を満たすために設計適性をチェックするときや、変更の影響分析を行うときの検査労力の削減がある。
本稿では,グラフィカルシミュリンクモデルからモデルスライスを抽出する大規模言語モデル(LLM)に基づく手法を提案する。
提案手法は,Simulinkモデルをテキスト表現に変換し,特定の要件を満たすために必要なSimulinkブロックを識別し,LLMが特定したブロックを組み込んだ音響モデルスライスを構築する。
我々は、Simulinkモデルをテキスト表現に変換する際の粒度(バービシティ)の異なるレベルと、LCMを誘導する戦略が、生成されたスライスの精度にどのように影響するかを考察する。
予備的な知見は,Simulinkブロックの構文と意味を保ちながら,Simulinkモデルの視覚的レンダリング情報を省略したテキスト表現によって生成されるプロンプトが,最も正確なスライスを生成することを示唆している。
さらに、チェーン・オブ・シンクレットとゼロショット・プロンプト戦略は、我々のアプローチによって生成されたモデルスライスを最も多く生成する。
関連論文リスト
- Guide-to-Explain for Controllable Summarization [11.904090197598505]
大規模言語モデル (LLMs) による制御可能な要約は未定である。
制御可能な要約のためのガイド・ツー・説明フレームワーク(GTE)を提案する。
我々のフレームワークは、初期ドラフトで間違った属性を識別し、前回の出力でエラーを説明するのに役立てます。
論文 参考訳(メタデータ) (2024-11-19T12:36:02Z) - Model Generation with LLMs: From Requirements to UML Sequence Diagrams [9.114284818139069]
本稿では,NL要求から特定のモデル,すなわちシーケンス図を生成するChatGPTの能力について検討する。
本稿では,ChatGPTが生成した28種類の要求文書と異なるドメインのシーケンス図について検討する。
以上の結果から, モデルが標準に適合し, 合理的な理解可能性を示す一方で, 要求条件に対する完全性や正当性は, しばしば課題となることが示唆された。
論文 参考訳(メタデータ) (2024-04-09T15:07:25Z) - Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚トークンの概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - Representation Surgery for Multi-Task Model Merging [57.63643005215592]
マルチタスク学習(MTL)は、複数のタスクから情報を統一されたバックボーンに圧縮し、計算効率と一般化を改善する。
最近の研究は、複数の独立して訓練されたモデルをマージして、共同トレーニングのために生データを収集する代わりにMLLを実行する。
既存のモデルマージスキームの表現分布を可視化することにより、マージモデルはしばしば表現バイアスのジレンマに悩まされる。
論文 参考訳(メタデータ) (2024-02-05T03:39:39Z) - FLIP: Fine-grained Alignment between ID-based Models and Pretrained Language Models for CTR Prediction [49.510163437116645]
クリックスルーレート(CTR)予測は、パーソナライズされたオンラインサービスにおいてコア機能モジュールとして機能する。
CTR予測のための従来のIDベースのモデルは、表形式の1ホットエンコードされたID特徴を入力として取る。
事前訓練された言語モデル(PLM)は、テキストのモダリティの文を入力として取る別のパラダイムを生み出した。
本稿では,CTR予測のためのIDベースモデルと事前学習言語モデル(FLIP)間の細粒度特徴レベルのアライメントを提案する。
論文 参考訳(メタデータ) (2023-10-30T11:25:03Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - Equivalence of Segmental and Neural Transducer Modeling: A Proof of
Concept [56.46135010588918]
RNN-Transducerモデルとセグメントモデル(直接HMM)の広く使われているクラスが等価であることを証明する。
空白確率はセグメント長確率に変換され,その逆も示された。
論文 参考訳(メタデータ) (2021-04-13T11:20:48Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。