論文の概要: Learning-Based Relaxation of Completeness Requirements for Data Entry
Forms
- arxiv url: http://arxiv.org/abs/2311.13517v3
- Date: Wed, 13 Dec 2023 10:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 20:03:44.056118
- Title: Learning-Based Relaxation of Completeness Requirements for Data Entry
Forms
- Title(参考訳): データ入力形式の完全性要件の学習に基づく緩和
- Authors: Hichem Belgacem, Xiaochen Li, Domenico Bianculli, Lionel C. Briand
- Abstract要約: LACQUERはベイジアンネットワークモデルを構築し、ユーザーが無意味な値を満たさなければならない条件を自動的に学習する。
異なるデータセットで0.76から0.90の範囲の精度で、必要なフィールドの完全性要件を正確に緩和することができる。
- 参考スコア(独自算出の注目度): 10.684109842514772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data entry forms use completeness requirements to specify the fields that are
required or optional to fill for collecting necessary information from
different types of users.
However, some required fields may not be applicable for certain types of
users anymore. Nevertheless, they may still be incorrectly marked as required
in the form; we call such fields obsolete required fields.
Since obsolete required fields usually have not-null validation checks before
submitting the form, users have to enter meaningless values in such fields in
order to complete the form submission. These meaningless values threaten the
quality of the filled data. To avoid users filling meaningless values, existing
techniques usually rely on manually written rules to identify the obsolete
required fields and relax their completeness requirements. However, these
techniques are ineffective and costly. In this paper, we propose LACQUER, a
learning-based automated approach for relaxing the completeness requirements of
data entry forms. LACQUER builds Bayesian Network models to automatically learn
conditions under which users had to fill meaningless values. To improve its
learning ability, LACQUER identifies the cases where a required field is only
applicable for a small group of users, and uses SMOTE, an oversampling
technique, to generate more instances on such fields for effectively mining
dependencies on them. Our experimental results show that LACQUER can accurately
relax the completeness requirements of required fields in data entry forms with
precision values ranging between 0.76 and 0.90 on different datasets. LACQUER
can prevent users from filling 20% to 64% of meaningless values, with negative
predictive values between 0.72 and 0.91. Furthermore, LACQUER is efficient; it
takes at most 839 ms to predict the completeness requirement of an instance.
- Abstract(参考訳): データ入力フォームは、異なるタイプのユーザから必要な情報を集めるのに必要なフィールドやオプションを指定するために完全性要件を使用する。
しかし、いくつかの必要なフィールドは、特定の種類のユーザーに適用できないかもしれない。
それでも、これらのフィールドは、そのフォームで要求されるように誤ってマークされる可能性がある。
廃止予定のフィールドは通常、フォームを提出する前にnullの検証チェックを行わないので、フォームの提出を完了するには、ユーザーはそのようなフィールドに意味のない値を入力する必要がある。
これらの意味のない値は、満たしたデータの品質を脅かす。
ユーザが意味のない値を満たすのを避けるため、既存のテクニックは通常、不要なフィールドを特定し、完全性要件を緩和するために手書きのルールに依存している。
しかし、これらの技術は効果がなく費用もかかる。
本稿では,データ入力フォームの完全性要件を緩和する学習ベースの自動アプローチであるLACQUERを提案する。
LACQUERはベイジアンネットワークモデルを構築し、ユーザーが無意味な値を満たさなければならない条件を自動的に学習する。
学習能力を向上させるために、LACQUERは、必要なフィールドが少数のユーザグループにのみ適用される場合を特定し、オーバーサンプリング技術であるSMOTEを使用して、そのようなフィールド上のより多くのインスタンスを生成し、それらへの依存性を効果的にマイニングする。
実験の結果, LACQUERは, 異なるデータセット上で0.76から0.90の精度で, 必要なフィールドの完全性要件を正確に緩和できることがわかった。
LACQUERは、ユーザが無意味な値の20%から64%を、0.72から0.91の負の予測値で埋めることを防ぐことができる。
さらに、LACQUERは効率が良く、インスタンスの完全性要件を予測するのに少なくとも839ミリ秒かかる。
関連論文リスト
- Natural Language Requirements Testability Measurement Based on Requirement Smells [1.1663475941322277]
テスト可能な要件は、障害の防止、メンテナンスコストの削減、受け入れテストの実行を容易にする。
要求の匂いに基づいて、要求の検証可能性を測定するための自動的なアプローチは提案されていない。
本稿では,9つの要求の匂いの広範囲なセットに基づいて,自然言語の検証可能性の評価とランク付けを行う数学的モデルを提案する。
論文 参考訳(メタデータ) (2024-03-26T08:19:29Z) - Certain and Approximately Certain Models for Statistical Learning [4.318959672085627]
特定のトレーニングデータや対象モデルに対して,不足値を持つデータから,正確なモデルを直接学習することが可能であることを示す。
我々は、理論的に保証された効率的なアルゴリズムを構築し、この必要条件を確認し、計算が不要な場合に正確なモデルを返す。
論文 参考訳(メタデータ) (2024-02-27T22:49:33Z) - Clarify: Improving Model Robustness With Natural Language Corrections [63.342630414000006]
教師付き学習では、モデルは静的データセットから相関を抽出するために訓練される。
これはしばしば、高レベルの誤解に依存するモデルにつながる。
モデル誤解をインタラクティブに修正する新しいインターフェースと方法であるClarifyを紹介した。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - One-Shot Machine Unlearning with Mnemonic Code [5.579745503613096]
機械学習(MU)は、トレーニングされたディープラーニングモデルから望ましくないトレーニングデータを忘れることを目的としている。
単純なMUアプローチは、望ましくないデータが削除されたトレーニングデータで、モデル全体を再トレーニングすることです。
追加の訓練を必要としないワンショットMU法を提案する。
論文 参考訳(メタデータ) (2023-06-09T04:59:24Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Comparing Shape-Constrained Regression Algorithms for Data Validation [0.0]
産業や科学の応用は、人間の手作業による検証が不可能な大量のデータを扱う。
本研究では,その分類精度と実行時性能に基づいて,データ検証を目的として,異なる形状制約付き回帰アルゴリズムを比較した。
論文 参考訳(メタデータ) (2022-09-20T10:31:20Z) - An Information-theoretic Approach to Prompt Engineering Without Ground
Truth Labels [55.06990011183662]
我々は、ラベル付き例やtextitwithout のモデルへの直接アクセスなしに、プロンプトテンプレートを選択する新しい方法を提案する。
7つの異なるNLPタスクを表す8つのデータセットにまたがって、テンプレートが高い相互情報を持つ場合、そのタスクに対して高い精度を持つことを示す。
論文 参考訳(メタデータ) (2022-03-21T21:51:43Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - Manifold-based Test Generation for Image Classifiers [7.226144684379191]
画像分類ニューラルネットワークをテストするには、信頼を刺激するのに十分な現実的なテストデータを取得する必要がある。
本稿では,これらの課題に対処するための新しい枠組みを提案する。
実験により、この手法により、十分に訓練されたモデルであっても、何千もの現実的かつフォールトレベリングなテストケースを効率的に生成できることが示された。
論文 参考訳(メタデータ) (2020-02-15T07:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。