論文の概要: A Generative Neural Network Framework for Automated Software Testing
- arxiv url: http://arxiv.org/abs/2006.16335v1
- Date: Mon, 29 Jun 2020 19:39:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:14:27.891117
- Title: A Generative Neural Network Framework for Automated Software Testing
- Title(参考訳): 自動ソフトウェアテストのための生成型ニューラルネットワークフレームワーク
- Authors: Leonid Joffe, David J. Clark
- Abstract要約: 本稿では,非畳み込み生成ニューラルネットワークに基づくSBSTフレームワークを提案する。
NNをSBSTタスクに適合させる有益な品質を保持するだけでなく、独自のトレーニングデータも生成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Search Based Software Testing (SBST) is a popular automated testing technique
which uses a feedback mechanism to search for faults in software. Despite its
popularity, it has fundamental challenges related to the design, construction
and interpretation of the feedback. Neural Networks (NN) have been hugely
popular in recent years for a wide range of tasks. We believe that they can
address many of the issues inherent to common SBST approaches. Unfortunately,
NNs require large and representative training datasets.
In this work we present an SBST framework based on a deconvolutional
generative neural network. Not only does it retain the beneficial qualities
that make NNs appropriate for SBST tasks, it also produces its own training
data which circumvents the problem of acquiring a training dataset that limits
the use of NNs.
We demonstrate through a series of experiments that this architecture is
possible and practical. It generates diverse, sensible program inputs, while
exploring the space of program behaviours. It also creates a meaningful
ordering over program behaviours and is able to find crashing executions. This
is all done without any prior knowledge of the program.
We believe this proof of concept opens new directions for future work at the
intersection of SBST and neural networks.
- Abstract(参考訳): 検索ベースソフトウェアテスト(英: Search Based Software Testing、SBST)は、フィードバックメカニズムを使用してソフトウェアの欠陥を検索する、一般的な自動テスト手法である。
その人気にもかかわらず、フィードバックの設計、構築、解釈に関する根本的な課題がある。
ニューラルネットワーク(nn)は、近年、さまざまなタスクで非常に人気を集めています。
我々は、一般的なSBSTアプローチに固有の多くの問題に対処できると考えている。
残念ながら、nnは大規模かつ代表的なトレーニングデータセットを必要とする。
本研究では,非畳み込み生成ニューラルネットワークに基づくSBSTフレームワークを提案する。
NNをSBSTタスクに適合させる有益な品質を保持するだけでなく、NNの使用を制限するトレーニングデータセットの取得を回避できる独自のトレーニングデータも生成している。
我々は、このアーキテクチャが可能かつ実用的であることを一連の実験を通して実証する。
プログラムの振る舞いの空間を探索しながら、多様で賢明なプログラム入力を生成する。
また、プログラムの振る舞いよりも有意義な順序付けを生成し、クラッシュする実行を見つけることができる。
これはすべて、プログラムの事前の知識なしで行われる。
我々は、この概念の証明が、SBSTとニューラルネットワークの交差点における今後の研究の新たな方向を開くと信じている。
関連論文リスト
- Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - Adversarial Training Using Feedback Loops [1.6114012813668932]
ディープニューラルネットワーク(DNN)は、一般化性に制限があるため、敵の攻撃に非常に敏感である。
本稿では制御理論に基づく新しいロバスト化手法を提案する。
フィードバック制御アーキテクチャに基づく新しい逆行訓練アプローチは、フィードバックループ逆行訓練(FLAT)と呼ばれる。
論文 参考訳(メタデータ) (2023-08-23T02:58:02Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Making a Spiking Net Work: Robust brain-like unsupervised machine
learning [0.0]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替品である
SNNは動的安定性に悩まされており、ANNの精度と一致しない。
本稿では,SNNが文献で確認された多くの欠点を克服する方法について述べる。
論文 参考訳(メタデータ) (2022-08-02T02:10:00Z) - Uncertainty Quantification and Resource-Demanding Computer Vision
Applications of Deep Learning [5.130440339897478]
ディープニューラルネットワーク(DNN)を安全クリティカルなアプリケーションに導入するには、モデルの不確実性を徹底的に扱う必要がある。
本稿では、新しいオブジェクトクラスに遭遇したとき、DNNに不確実性を示す方法について調査する。
また、不確実性定量化の助けを借りて、少数のラベルから学習する訓練方法を提案する。
論文 参考訳(メタデータ) (2022-05-30T08:31:03Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Architecture Search without Training [8.067283219068832]
本研究では,未学習ネットワークにおけるデータポイント間のアクティベーションの重複について検討する。
ネットワークのトレーニングされたパフォーマンスを示すのに有用な指標を、どのように提供できるかを動機付けます。
この測度を単純なアルゴリズムに組み込むことで、単一のGPU上で数秒のトレーニングをすることなく、強力なネットワークを検索できるのです。
論文 参考訳(メタデータ) (2020-06-08T14:53:56Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Robust Pruning at Initialization [61.30574156442608]
計算リソースが限られているデバイス上で、機械学習アプリケーションを使用するための、より小さく、エネルギー効率のよいニューラルネットワークの必要性が高まっている。
ディープNNにとって、このような手順はトレーニングが困難であり、例えば、ひとつの層が完全に切断されるのを防ぐことができないため、満足できないままである。
論文 参考訳(メタデータ) (2020-02-19T17:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。