論文の概要: GIST: Generated Inputs Sets Transferability in Deep Learning
- arxiv url: http://arxiv.org/abs/2311.00801v1
- Date: Wed, 1 Nov 2023 19:35:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 15:55:34.355982
- Title: GIST: Generated Inputs Sets Transferability in Deep Learning
- Title(参考訳): GIST: 生成入力はディープラーニングにおける転送可能性を設定する
- Authors: Florian Tambon, Foutse Khomh, Giuliano Antoniol
- Abstract要約: 本稿では、ディープラーニングモデル間のテストセットの効率的な転送のための新しいアプローチであるGISTを紹介する。
我々は,2つのモードと異なるテストセット生成手順を用いて,GISTを断層タイプ被覆特性に対して実験的に評価し,その実現可能性を示す。
- 参考スコア(独自算出の注目度): 13.6526247611647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the demand for verifiability and testability of neural networks continues
to rise, an increasing number of methods for generating test sets are being
developed. However, each of these techniques tends to emphasize specific
testing aspects and can be quite time-consuming. A straightforward solution to
mitigate this issue is to transfer test sets between some benchmarked models
and a new model under test, based on a desirable property one wishes to
transfer. This paper introduces GIST (Generated Inputs Sets Transferability), a
novel approach for the efficient transfer of test sets among Deep Learning
models. Given a property of interest that a user wishes to transfer (e.g.,
coverage criterion), GIST enables the selection of good test sets from the
point of view of this property among available ones from a benchmark. We
empirically evaluate GIST on fault types coverage property with two modalities
and different test set generation procedures to demonstrate the approach's
feasibility. Experimental results show that GIST can select an effective test
set for the given property to transfer it to the model under test. Our results
suggest that GIST could be applied to transfer other properties and could
generalize to different test sets' generation procedures and modalities
- Abstract(参考訳): ニューラルネットワークの妥当性とテスト容易性に対する需要が増加し続けており、テストセットを生成する方法が開発されている。
しかしながら、これらのテクニックはそれぞれ、特定のテスト面を強調する傾向があり、非常に時間がかかります。
この問題を緩和するための簡単な解決策は、いくつかのベンチマークされたモデルとテスト中の新しいモデルの間でテストセットを転送することである。
本稿では,深層学習モデル間のテストセットの効率的な転送のための新しいアプローチであるgist(create inputs set transferability)を提案する。
ユーザが転送したい興味のある特性(例えばカバレッジ基準)を考慮すれば、GISTはベンチマークから利用可能なものの中から、この特性の観点から良いテストセットを選択することができる。
2つのモードと異なるテストセット生成手順で,GISTを断層タイプカバレッジ特性で実証的に評価し,その実現可能性を示す。
実験の結果,gistは与えられた特性に対して有効なテストセットを選択し,それをテスト対象のモデルに転送できることがわかった。
我々はgistを他の特性の伝達に適用し,異なるテスト集合の生成手順とモダリティに一般化できることを示唆する。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Robust Black-box Testing of Deep Neural Networks using Co-Domain Coverage [18.355332126489756]
信頼できるデプロイメントには、マシンラーニングモデルの厳格なテストが必要です。
我々は、ディープニューラルネットワーク(DNN)の堅牢なテストのためのテストスーツを生成するための新しいブラックボックスアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-13T09:42:57Z) - Novel Deep Neural Network Classifier Characterization Metrics with Applications to Dataless Evaluation [1.6574413179773757]
本研究では、サンプルデータセットを使わずに、ディープニューラルネットワーク(DNN)分類器のトレーニング品質を評価する。
CAFIR10およびCAFIR100データセットを用いて学習したResNet18の手法に関する実証的研究により、DNN分類器のデータレス評価が実際に可能であることを確認した。
論文 参考訳(メタデータ) (2024-07-17T20:40:46Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [143.14128737978342]
新たなパラダイムであるテスト時適応は、事前トレーニングされたモデルをテスト中にラベルのないデータに適用し、予測を行う可能性がある。
このパラダイムの最近の進歩は、推論に先立って自己適応モデルのトレーニングにラベルのないデータを活用するという大きな利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Efficient Test-Time Model Adaptation without Forgetting [60.36499845014649]
テストタイム適応は、トレーニングとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
信頼性および非冗長なサンプルを同定するためのアクティブなサンプル選択基準を提案する。
また、重要なモデルパラメータを劇的な変化から制約するFisher regularizerを導入します。
論文 参考訳(メタデータ) (2022-04-06T06:39:40Z) - Machine Learning Testing in an ADAS Case Study Using
Simulation-Integrated Bio-Inspired Search-Based Testing [7.5828169434922]
Deeperは、ディープニューラルネットワークベースの車線保持システムをテストするための障害検出テストシナリオを生成する。
新たに提案されたバージョンでは、新しいバイオインスパイアされた検索アルゴリズム、遺伝的アルゴリズム(GA)、$(mu+lambda)$および$(mu,lambda)$進化戦略(ES)、およびParticle Swarm Optimization(PSO)を利用する。
評価の結果,Deeperで新たに提案したテストジェネレータは,以前のバージョンよりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-22T20:27:40Z) - Distribution-Aware Testing of Neural Networks Using Generative Models [5.618419134365903]
ディープニューラルネットワーク(DNN)をコンポーネントとして持つソフトウェアの信頼性は、緊急に重要である。
最近の3つのテスト手法が, かなりの数の不正なテスト入力を生成することを示す。
テスト生成プロセスにおいて,テスト中のDNNモデルの有効な入力空間を組み込む手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T17:18:21Z) - Noisy Adaptive Group Testing using Bayesian Sequential Experimental
Design [63.48989885374238]
病気の感染頻度が低い場合、Dorfman氏は80年前に、人のテストグループは個人でテストするよりも効率が良いことを示した。
本研究の目的は,ノイズの多い環境で動作可能な新しいグループテストアルゴリズムを提案することである。
論文 参考訳(メタデータ) (2020-04-26T23:41:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。