論文の概要: Crucible: Graphical Test Cases for Alloy Models
- arxiv url: http://arxiv.org/abs/2307.06922v1
- Date: Thu, 13 Jul 2023 17:43:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 17:33:05.263267
- Title: Crucible: Graphical Test Cases for Alloy Models
- Title(参考訳): crucible: 合金モデルのグラフィカルなテストケース
- Authors: Adam G. Emerson, Allison Sullivan
- Abstract要約: この記事では、AUnitのテストケースをグラフィカルに作成できるCrucibleを紹介します。
Crucibleは、構造化された価値あるテストケースを確実に作成するために、ユーザに自動ガイダンスを提供する。
- 参考スコア(独自算出の注目度): 0.76146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Alloy is a declarative modeling language that is well suited for verifying
system designs. Alloy models are automatically analyzed using the Analyzer, a
toolset that helps the user understand their system by displaying the
consequences of their properties, helping identify any missing or incorrect
properties, and exploring the impact of modifications to those properties. To
achieve this, the Analyzer invokes off-the-shelf SAT solvers to search for
scenarios, which are assignments to the sets and relations of the model such
that all executed formulas hold. To help write more accurate software models,
Alloy has a unit testing framework, AUnit, which allows users to outline
specific scenarios and check if those scenarios are correctly generated or
prevented by their model. Unfortunately, AUnit currently only supports textual
specifications of scenarios. This paper introduces Crucible, which allows users
to graphically create AUnit test cases. In addition, Crucible provides
automated guidance to users to ensure they are creating well structured,
valuable test cases. As a result, Crucible eases the burden of adopting AUnit
and brings AUnit test case creation more in line with how Alloy scenarios are
commonly interacted with, which is graphically.
- Abstract(参考訳): alloyは宣言型モデリング言語であり、システム設計の検証に適している。
アロイモデルはアナライザを使用して自動的に分析される。アナライザは、ユーザが自身の特性の結果を表示し、行方不明または不正な特性を特定し、それらの特性に対する変更の影響を探求することで、システムを理解するのに役立つツールセットである。
これを達成するために、アナライザは既成のsatソルバを起動して、すべての実行された公式が保持するモデルの集合と関係への割り当てであるシナリオを探索する。
より正確なソフトウェアモデルを書くのを助けるために、 alloyにはユニットテストフレームワークaunitがあり、ユーザーは特定のシナリオを概説し、そのシナリオがモデルによって正しく生成されているか、または防止されているかをチェックすることができる。
残念ながら、現在AUnitはシナリオのテキスト仕様のみをサポートしている。
本稿では、ユーザがaunitのテストケースをグラフィカルに作成できるcrucibleを紹介する。
さらにCrucibleは,十分に構造化された,価値のあるテストケースの作成を確実にするための,ユーザに自動ガイダンスを提供する。
結果として、CrucibleはAUnitの採用の負担を軽減し、AUnitテストケースの作成を、Aoyのシナリオが一般的に相互作用する方法と一致させる。
関連論文リスト
- ViUniT: Visual Unit Tests for More Robust Visual Programming [104.55763189099125]
モデルが正しく答えると、不正なプログラムを33%生成します。
自動単体テストを生成することで、視覚プログラムの信頼性を向上させるためのフレームワークであるVisual Unit Testing (ViUniT)を提案する。
論文 参考訳(メタデータ) (2024-12-12T01:36:18Z) - Commit0: Library Generation from Scratch [77.38414688148006]
Commit0は、AIエージェントにスクラッチからライブラリを書くよう促すベンチマークである。
エージェントには、ライブラリのAPIを概説する仕様文書と、インタラクティブなユニットテストスイートが提供されている。
Commit0はまた、モデルが生成したコードに対して静的解析と実行フィードバックを受け取る、インタラクティブな環境も提供する。
論文 参考訳(メタデータ) (2024-12-02T18:11:30Z) - Structure Editor for Building Software Models [0.5735035463793009]
93,000以上の新しいユーザーモデルに関する最近の調査によると、ユーザーは当初から問題を抱えている。
我々は,アロイの文法と型情報は,有効な公式を構成するための狭い経路を概説しているにもかかわらず,ユーザに対して受動的に伝達されると考えている。
本稿では,フリータイピングではなく,ブロックベースの入力でモデルを構築するアロイ用構造エディタのコンセプト実証について概説する。
論文 参考訳(メタデータ) (2024-06-13T18:21:02Z) - Right or Wrong -- Understanding How Novice Users Write Software Models [0.6445605125467574]
本稿では, 初心者がアロイを学習しようとする場合, 97,000モデル以上のモデルについて実証的研究を行った。
本研究では,ユーザが将来使用するための総合的なベンチマークを作成するために,正しいモデルと間違ったモデルの両方を記述する方法を検討する。
論文 参考訳(メタデータ) (2024-02-09T18:56:57Z) - Prompting Code Interpreter to Write Better Unit Tests on Quixbugs
Functions [0.05657375260432172]
単体テストは、ソフトウェア工学において、記述されたコードの正確性と堅牢性をテストするために一般的に使用されるアプローチである。
本研究では,コードインタプリタが生成する単体テストの品質に及ぼす異なるプロンプトの影響について検討する。
生成した単体テストの品質は、提供されたプロンプトのマイナーな詳細の変更に敏感ではないことがわかった。
論文 参考訳(メタデータ) (2023-09-30T20:36:23Z) - Zero-Shot Object Counting with Language-Vision Models [50.1159882903028]
クラスに依存しないオブジェクトカウントは、テスト時に任意のクラスのオブジェクトインスタンスをカウントすることを目的としている。
現在の手法では、新しいカテゴリではしばしば利用できない入力として、人間に注釈をつけた模範を必要とする。
テスト期間中にクラス名のみを利用できる新しい設定であるゼロショットオブジェクトカウント(ZSC)を提案する。
論文 参考訳(メタデータ) (2023-09-22T14:48:42Z) - Revisiting and Improving Retrieval-Augmented Deep Assertion Generation [13.373681113601982]
単体テストはソフトウェア開発プロセスにおいて重要な活動となっている。
Yuらは単体テストのためのアサーションを生成する統合的なアプローチ(略して積分)を提案した。
有望であるにもかかわらず、なぜ統合が機能するのか、それとも機能しないのかについては、いまだに知識のギャップがあります。
論文 参考訳(メタデータ) (2023-09-19T02:39:02Z) - Zero-shot Model Diagnosis [80.36063332820568]
ディープラーニングモデルを評価するための一般的なアプローチは、興味のある属性を持つラベル付きテストセットを構築し、そのパフォーマンスを評価することである。
本稿では,ゼロショットモデル診断(ZOOM)がテストセットやラベル付けを必要とせずに可能であることを論じる。
論文 参考訳(メタデータ) (2023-03-27T17:59:33Z) - Auditing AI models for Verified Deployment under Semantic Specifications [65.12401653917838]
AuditAIは、解釈可能な形式検証とスケーラビリティのギャップを埋める。
AuditAIは、画素空間の摂動のみを用いた検証の限界に対処しながら、検証と認定トレーニングのための制御されたバリエーションを得られるかを示す。
論文 参考訳(メタデータ) (2021-09-25T22:53:24Z) - Generating Accurate Assert Statements for Unit Test Cases using
Pretrained Transformers [10.846226514357866]
単体テストは、ソフトウェアテストピラミッドの基礎となる基礎である。
正確で有用なアサーション文を生成することによって、開発者が単体テストケースを書くのを支援するアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-11T19:35:09Z) - Beyond Accuracy: Behavioral Testing of NLP models with CheckList [66.42971817954806]
CheckList は NLP モデルをテストするためのタスクに依存しない方法論である。
CheckListには、包括的なテストのアイデアを促進する一般的な言語機能とテストタイプのマトリックスが含まれている。
ユーザスタディでは、CheckListのNLP実践者が2倍の数のテストを作成し、それのないユーザの約3倍のバグを発見しました。
論文 参考訳(メタデータ) (2020-05-08T15:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。