論文の概要: Simulink Mutation Testing using CodeBERT
- arxiv url: http://arxiv.org/abs/2501.07553v1
- Date: Mon, 13 Jan 2025 18:37:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:27:31.951231
- Title: Simulink Mutation Testing using CodeBERT
- Title(参考訳): CodeBERTを用いたシミュリンク突然変異試験
- Authors: Jingfan Zhang, Delaram Ghobari, Mehrdad Sabetzadeh, Shiva Nejati,
- Abstract要約: BERTiMuSはSimulinkモデルをテキスト表現に変換し、派生したテキストからトークンをマスクし、CodeBERTを使用してマスクされたトークンを予測する。
BERTiMuSは,CodeBERTのみに依存して,文献に記録されているSimulink変異パターンをブロックベースで生成できることを示す。
BERTiMuS は FIM と相補的であり、(b) 変異テストの要求に見合った概念を考えると、BERTiMuS は FIM より優れている。
- 参考スコア(独自算出の注目度): 6.45011828326315
- License:
- Abstract: We present BERTiMuS, an approach that uses CodeBERT to generate mutants for Simulink models. BERTiMuS converts Simulink models into textual representations, masks tokens from the derived text, and uses CodeBERT to predict the masked tokens. Simulink mutants are obtained by replacing the masked tokens with predictions from CodeBERT. We evaluate BERTiMuS using Simulink models from an industrial benchmark, and compare it with FIM -- a state-of-the-art mutation tool for Simulink. We show that, relying exclusively on CodeBERT, BERTiMuS can generate the block-based Simulink mutation patterns documented in the literature. Further, our results indicate that: (a) BERTiMuS is complementary to FIM, and (b) when one considers a requirements-aware notion of mutation testing, BERTiMuS outperforms FIM.
- Abstract(参考訳): BERTiMuSは,CodeBERTを用いてSimulinkモデルのミュータントを生成する手法である。
BERTiMuSはSimulinkモデルをテキスト表現に変換し、派生したテキストからトークンをマスクし、CodeBERTを使用してマスクされたトークンを予測する。
シミュリンク変異体は、マスクされたトークンをCodeBERTの予測に置き換えることで得られる。
産業ベンチマークからSimulinkモデルを用いてBERTiMuSを評価し,Simulinkの最先端の突然変異ツールであるFIMと比較した。
BERTiMuSは,CodeBERTのみに依存して,文献に記録されているSimulink変異パターンをブロックベースで生成できることを示す。
さらに、我々の結果は次のように示している。
(a)BERTiMuSはFIMと相補的であり、
b) 変異検査の要件を意識した概念を考えると、BERTiMuSはFIMを上回っます。
関連論文リスト
- Autoregressive Speech Synthesis without Vector Quantization [135.4776759536272]
テキストから音声合成(TTS)のための新しい連続値トークンに基づく言語モデリング手法であるMELLEを提案する。
MELLEはテキスト条件から直接連続メル-スペクトログラムフレームを自動回帰生成する。
論文 参考訳(メタデータ) (2024-07-11T14:36:53Z) - Requirements-driven Slicing of Simulink Models Using LLMs [4.670347587555517]
グラフィカルシミュリンクモデルからモデルスライスを抽出する大規模言語モデル(LLM)に基づく手法を提案する。
我々は、Simulinkモデルをテキスト表現に変換する際の粒度(バービシティ)の異なるレベルと、LCMを誘導する戦略が、生成されたスライスの精度にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2024-05-02T19:41:04Z) - Which Syntactic Capabilities Are Statistically Learned by Masked
Language Models for Code? [51.29970742152668]
精度に基づく測定に依存することで、モデルの能力が過大評価される可能性があることを強調する。
これらの問題に対処するために,SyntaxEval in Syntactic Capabilitiesというテクニックを導入する。
論文 参考訳(メタデータ) (2024-01-03T02:44:02Z) - Weighted Sampling for Masked Language Modeling [12.25238763907731]
トークン周波数とトレーニング損失に基づいてトークンをマスキングするための2つの簡易かつ効果的な重み付きサンプリング手法を提案する。
これら2つの戦略をBERTに適用し、重み付きBERT(WSBERT)を得る。
論文 参考訳(メタデータ) (2023-02-28T01:07:39Z) - Momentum Calibration for Text Generation [86.58432361938806]
テキスト生成のためのMoCa(bf Momentum bf Calibration)を提案する。
MoCaは、ビームサーチを備えた運動量移動平均発生器を用いて、ゆっくりと進化する(しかし一貫した)サンプルを動的に生成するオンライン手法である。
論文 参考訳(メタデータ) (2022-12-08T13:12:10Z) - SimT: Handling Open-set Noise for Domain Adaptive Semantic Segmentation [58.61946589036262]
本稿では,ブラックボックスモデルを用いて,擬似ラベル付きターゲットデータのみにアクセス可能な実用的なドメイン適応(DA)セマンティックセマンティックセマンティクス問題について検討する。
ドメインギャップと2つのドメイン間のラベルシフトのため、擬似ラベル付きターゲットデータには、クローズドセットとオープンセットのラベルノイズが混在している。
DAセマンティックセグメンテーションにおける混合雑音分布をモデル化し、SimTの推定として問題を定式化するための単純なノイズ遷移行列(SimT)を提案する。
論文 参考訳(メタデータ) (2022-03-29T02:48:08Z) - BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised
Named Entity Recognition [57.2201011783393]
条件付き隠れマルコフモデル(CHMM)
CHMMは、入力トークンのBERT埋め込みからトークン単位の遷移と放出確率を予測する。
BERTベースのNERモデルを微調整し、ラベルをCHMMで推論する。
論文 参考訳(メタデータ) (2021-05-26T21:18:48Z) - Neural Contract Element Extraction Revisited: Letters from Sesame Street [13.389396129468745]
LSTMベースのエンコーダは、このタスクにおいて拡張CNN、Transformer、BERTよりもパフォーマンスがよい。
ドメイン固有のWORD2VEC埋め込みは、一般的なトレーニング済みのGLOVE埋め込みよりも優れている。
POSタグとトークンシェイプ埋め込みの形式でのモルフォシンタクティックな機能、およびコンテキスト対応のELMO埋め込みはパフォーマンスを改善しません。
論文 参考訳(メタデータ) (2021-01-12T09:02:22Z) - BERT-hLSTMs: BERT and Hierarchical LSTMs for Visual Storytelling [6.196023076311228]
文レベルと単語レベルのセマンティクスを別々にモデル化する新しい階層型ビジュアルストーリーテリングフレームワークを提案する。
次に、階層型LSTMネットワークを用いて、下位LSTMはBERTからの文ベクトル表現を入力として受け取り、画像に対応する文間の依存関係を学習し、上位LSTMは対応する単語ベクトル表現を生成する。
実験の結果,我々のモデルはBLEUとCIDErの自動評価基準において,最も密接に関連するベースラインよりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T18:07:28Z) - DiscreTalk: Text-to-Speech as a Machine Translation Problem [52.33785857500754]
本稿ではニューラルマシン翻訳(NMT)に基づくエンドツーエンドテキスト音声合成(E2E-TTS)モデルを提案する。
提案モデルは,非自己回帰ベクトル量子化変分オートエンコーダ(VQ-VAE)モデルと自己回帰トランスフォーマー-NMTモデルという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-05-12T02:45:09Z) - BAE: BERT-based Adversarial Examples for Text Classification [9.188318506016898]
我々は,BERTマスマスキング言語モデルからコンテキスト摂動を用いて,敵の例を生成するブラックボックス攻撃であるBAEを提案する。
BAEは, 文法性やセマンティック・コヒーレンスを向上した逆例を生成することに加えて, より強力な攻撃を行うことを示す。
論文 参考訳(メタデータ) (2020-04-04T16:25:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。