論文の概要: Big Data Testing Techniques: Taxonomy, Challenges and Future Trends
- arxiv url: http://arxiv.org/abs/2111.02853v1
- Date: Thu, 4 Nov 2021 13:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:03:42.178317
- Title: Big Data Testing Techniques: Taxonomy, Challenges and Future Trends
- Title(参考訳): ビッグデータテスト技術:分類学、挑戦、そして今後のトレンド
- Authors: Iram Arshad, Saeed Hamood Alsamhi
- Abstract要約: ビッグデータテストは、データのパフォーマンスと品質を維持しながら、ビッグデータシステムがスムーズでエラーのない動作を確実にすることを目的としている。
我々はビッグデータテスト技術時代(2010年-2021年)の体系的なレビューを行った。
本稿では、各処理フェーズで使用されるテクニックを強調して、テストデータの処理について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Big Data is reforming many industrial domains by providing decision support
through analyzing large volumes of data. Big Data testing aims to ensure that
Big Data systems run smoothly and error-free while maintaining the performance
and quality of data. However, because of the diversity and complexity of data,
testing Big Data is challenging. Though numerous researches deal with Big Data
testing, a comprehensive review to address testing techniques and challenges is
not conflate yet. Therefore, we have conducted a systematic review of the Big
Data testing techniques period (2010 - 2021). This paper discusses the
processing of testing data by highlighting the techniques used in every
processing phase. Furthermore, we discuss the challenges and future directions.
Our finding shows that diverse functional, non-functional and combined
(functional and non-functional) testing techniques have been used to solve
specific problems related to Big Data. At the same time, most of the testing
challenges have been faced during the MapReduce validation phase. In addition,
the combinatorial testing technique is one of the most applied techniques in
combination with other techniques (i.e., random testing, mutation testing,
input space partitioning and equivalence testing) to solve various functional
faults challenges faced during Big Data testing.
- Abstract(参考訳): ビッグデータは、大量のデータを分析して意思決定のサポートを提供することで、多くの産業領域を改革している。
ビッグデータテストは、データのパフォーマンスと品質を維持しながら、ビッグデータシステムがスムーズでエラーのない動作を確実にすることを目的としている。
しかし、データの多様性と複雑さのため、ビッグデータのテストは困難である。
多くの研究がビッグデータテストを扱うが、テスト技術や課題に対処するための包括的なレビューはまだ公開されていない。
そこで我々は,2010年から2021年までのビッグデータテスト手法を体系的に検討してきた。
本稿では,各処理フェーズで使用される技術に注目して,テストデータの処理について述べる。
さらに,課題と今後の方向性についても論じる。
その結果,ビッグデータに関連する特定の問題を解決するために,多彩な機能的,非機能的,複合的(機能的,非機能的)テスト技術が用いられていることがわかった。
同時に、MapReduceバリデーションフェーズでは、テストの課題の大部分が直面しています。
さらに、組合せテスト技術は他の手法(ランダムテスト、突然変異テスト、入力空間分割、等価テスト)と組み合わせて、ビッグデータテストで直面する様々な機能的障害を解決する最も応用された手法の1つである。
関連論文リスト
- Navigating Tabular Data Synthesis Research: Understanding User Needs and Tool Capabilities [1.2535250082638645]
タブラルデータ合成(TDS)における技術の現状について調査する。
機能要件と非機能要件のセットを定義することにより,ユーザのニーズを検討する。
我々はユーザがアプリケーションに適したTDSツールを見つけるのを助けるための意思決定ガイドを開発した。
論文 参考訳(メタデータ) (2024-05-31T16:00:43Z) - Test-Time Self-Adaptive Small Language Models for Question Answering [63.91013329169796]
ラベルのないテストデータのみを用いて、より小さな自己適応型LMの能力を示し、検討する。
提案した自己適応戦略は,ベンチマークQAデータセットの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-10-20T06:49:32Z) - Advanced Data Augmentation Approaches: A Comprehensive Survey and Future
directions [57.30984060215482]
データ拡張の背景、レビューされたデータ拡張技術の新しい包括的分類法、および各技術の強さと弱点(可能ならば)を提供する。
また、画像分類、オブジェクト検出、セマンティックセグメンテーションなどの3つの一般的なコンピュータビジョンタスクに対して、データ拡張効果の総合的な結果を提供する。
論文 参考訳(メタデータ) (2023-01-07T11:37:32Z) - Sequential Kernelized Independence Testing [101.22966794822084]
我々は、カーネル化依存度にインスパイアされたシーケンシャルなカーネル化独立試験を設計する。
シミュレーションデータと実データの両方にアプローチのパワーを実証する。
論文 参考訳(メタデータ) (2022-12-14T18:08:42Z) - Mitigating Sovereign Data Exchange Challenges: A Mapping to Apply
Privacy- and Authenticity-Enhancing Technologies [67.34625604583208]
AET(Authenticity Enhancing Technologies)とPET(Privacy-Enhancing Technologies)は、SDE(Sovereign Data Exchange)に関与していると考えられている。
PETとAETは技術的に複雑であり、採用を妨げる。
本研究は,挑戦指向技術マッピングを実証的に構築する。
論文 参考訳(メタデータ) (2022-06-20T08:16:42Z) - Toward the Understanding of Deep Text Matching Models for Information
Retrieval [72.72380690535766]
本稿では,既存の深層テキストマッチング手法が情報検索の基本的な勾配を満たすかどうかを検証することを目的とする。
具体的には, 項周波数制約, 項識別制約, 長さ正規化制約, TF長制約の4つの属性を用いる。
LETOR 4.0 と MS Marco の実験結果から,研究対象の深層テキストマッチング手法はすべて,統計学において高い確率で上記の制約を満たすことが示された。
論文 参考訳(メタデータ) (2021-08-16T13:33:15Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - Towards an Integrated Platform for Big Data Analysis [4.5257812998381315]
本稿では,これらすべての側面を統合した,ビッグデータ解析のための統合型プレート形式のビジョンについて述べる。
このアプローチの主な利点は、プラットフォーム全体の拡張スケーラビリティ、アルゴリズムのパラメータ化の改善、エンドツーエンドのデータ分析プロセスにおけるユーザビリティの改善である。
論文 参考訳(メタデータ) (2020-04-27T03:15:23Z) - Establishing strong imputation performance of a denoising autoencoder in
a wide range of missing data problems [0.0]
トレーニングと計算の両方に一貫したフレームワークを開発します。
結果と最先端の計算手法を比較検討した。
開発されたオートエンコーダは、初期データ破損のあらゆる範囲において最小の誤差を得た。
論文 参考訳(メタデータ) (2020-04-06T12:00:30Z) - Smart Data driven Decision Trees Ensemble Methodology for Imbalanced Big
Data [11.117880929232575]
MapReduceパラダイムの使用によるデータ戦略の分割とマイノリティクラスのデータの欠如は、不均衡なデータ問題に対処するための新たな課題を提起している。
スマートデータ(Smart Data)は、高性能なモデルを実現するのに十分な品質のデータを指す。
本稿では,ビッグデータ領域における不均衡な分類問題に対処するための,新しいSmart Data driven Decision Trees Ensemble法を提案する。
論文 参考訳(メタデータ) (2020-01-16T12:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。