論文の概要: Learning-Based Relaxation of Completeness Requirements for Data Entry
Forms
- arxiv url: http://arxiv.org/abs/2311.13517v2
- Date: Wed, 29 Nov 2023 14:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 00:30:51.445069
- Title: Learning-Based Relaxation of Completeness Requirements for Data Entry
Forms
- Title(参考訳): データ入力形式の完全性要件の学習に基づく緩和
- Authors: Hichem Belgacem, Xiaochen Li, Domenico Bianculli, Lionel C. Briand
- Abstract要約: LACQUERはベイジアンネットワークモデルを構築し、ユーザーが無意味な値を満たさなければならない条件を自動的に学習する。
異なるデータセットで0.76から0.90の範囲の精度で、必要なフィールドの完全性要件を正確に緩和することができる。
- 参考スコア(独自算出の注目度): 10.684109842514772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data entry forms use completeness requirements to specify the fields that are
required or optional to fill for collecting necessary information from
different types of users.
However, some required fields may not be applicable for certain types of
users anymore. Nevertheless, they may still be incorrectly marked as required
in the form; we call such fields obsolete required fields.
Since obsolete required fields usually have not-null validation checks before
submitting the form, users have to enter meaningless values in such fields in
order to complete the form submission. These meaningless values threaten the
quality of the filled data. To avoid users filling meaningless values, existing
techniques usually rely on manually written rules to identify the obsolete
required fields and relax their completeness requirements. However, these
techniques are ineffective and costly. In this paper, we propose LACQUER, a
learning-based automated approach for relaxing the completeness requirements of
data entry forms. LACQUER builds Bayesian Network models to automatically learn
conditions under which users had to fill meaningless values. To improve its
learning ability, LACQUER identifies the cases where a required field is only
applicable for a small group of users, and uses SMOTE, an oversampling
technique, to generate more instances on such fields for effectively mining
dependencies on them. Our experimental results show that LACQUER can accurately
relax the completeness requirements of required fields in data entry forms with
precision values ranging between 0.76 and 0.90 on different datasets. LACQUER
can prevent users from filling 20% to 64% of meaningless values, with negative
predictive values between 0.72 and 0.91. Furthermore, LACQUER is efficient; it
takes at most 839 ms to predict the completeness requirement of an instance.
- Abstract(参考訳): データ入力フォームは、異なるタイプのユーザから必要な情報を集めるのに必要なフィールドやオプションを指定するために完全性要件を使用する。
しかし、いくつかの必要なフィールドは、特定の種類のユーザーに適用できないかもしれない。
それでも、これらのフィールドは、そのフォームで要求されるように誤ってマークされる可能性がある。
廃止予定のフィールドは通常、フォームを提出する前にnullの検証チェックを行わないので、フォームの提出を完了するには、ユーザーはそのようなフィールドに意味のない値を入力する必要がある。
これらの意味のない値は、満たしたデータの品質を脅かす。
ユーザが意味のない値を満たすのを避けるため、既存のテクニックは通常、不要なフィールドを特定し、完全性要件を緩和するために手書きのルールに依存している。
しかし、これらの技術は効果がなく費用もかかる。
本稿では,データ入力フォームの完全性要件を緩和する学習ベースの自動アプローチであるLACQUERを提案する。
LACQUERはベイジアンネットワークモデルを構築し、ユーザーが無意味な値を満たさなければならない条件を自動的に学習する。
学習能力を向上させるために、LACQUERは、必要なフィールドが少数のユーザグループにのみ適用される場合を特定し、オーバーサンプリング技術であるSMOTEを使用して、そのようなフィールド上のより多くのインスタンスを生成し、それらへの依存性を効果的にマイニングする。
実験の結果, LACQUERは, 異なるデータセット上で0.76から0.90の精度で, 必要なフィールドの完全性要件を正確に緩和できることがわかった。
LACQUERは、ユーザが無意味な値の20%から64%を、0.72から0.91の負の予測値で埋めることを防ぐことができる。
さらに、LACQUERは効率が良く、インスタンスの完全性要件を予測するのに少なくとも839ミリ秒かかる。
関連論文リスト
- The Art of Saying No: Contextual Noncompliance in Language Models [123.383993700586]
本稿では,ユーザの要求に従わないモデルについて,コンテキスト非準拠の包括的分類を導入する。
我々の分類は、不完全、不完全、不完全、不決定、人為的要求を含む幅広いカテゴリーにまたがる。
言語モデルの非準拠性をテストするために,1000個の非準拠プロンプトの新たな評価スイートを開発するために,この分類法を用いる。
論文 参考訳(メタデータ) (2024-07-02T07:12:51Z) - Natural Language Requirements Testability Measurement Based on Requirement Smells [1.1663475941322277]
テスト可能な要件は、障害の防止、メンテナンスコストの削減、受け入れテストの実行を容易にする。
要求の匂いに基づいて、要求の検証可能性を測定するための自動的なアプローチは提案されていない。
本稿では,9つの要求の匂いの広範囲なセットに基づいて,自然言語の検証可能性の評価とランク付けを行う数学的モデルを提案する。
論文 参考訳(メタデータ) (2024-03-26T08:19:29Z) - Certain and Approximately Certain Models for Statistical Learning [4.318959672085627]
特定のトレーニングデータや対象モデルに対して,不足値を持つデータから,正確なモデルを直接学習することが可能であることを示す。
我々は、理論的に保証された効率的なアルゴリズムを構築し、この必要条件を確認し、計算が不要な場合に正確なモデルを返す。
論文 参考訳(メタデータ) (2024-02-27T22:49:33Z) - Clarify: Improving Model Robustness With Natural Language Corrections [59.041682704894555]
モデルを教える標準的な方法は、大量のデータを提供することです。
このアプローチは、データ内の誤解を招く信号を拾うため、モデルに誤ったアイデアを教えることが多い。
モデル誤解をインタラクティブに修正するためのインターフェースと手法であるClarifyを提案する。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Comparing Shape-Constrained Regression Algorithms for Data Validation [0.0]
産業や科学の応用は、人間の手作業による検証が不可能な大量のデータを扱う。
本研究では,その分類精度と実行時性能に基づいて,データ検証を目的として,異なる形状制約付き回帰アルゴリズムを比較した。
論文 参考訳(メタデータ) (2022-09-20T10:31:20Z) - An Information-theoretic Approach to Prompt Engineering Without Ground
Truth Labels [55.06990011183662]
我々は、ラベル付き例やtextitwithout のモデルへの直接アクセスなしに、プロンプトテンプレートを選択する新しい方法を提案する。
7つの異なるNLPタスクを表す8つのデータセットにまたがって、テンプレートが高い相互情報を持つ場合、そのタスクに対して高い精度を持つことを示す。
論文 参考訳(メタデータ) (2022-03-21T21:51:43Z) - A Lagrangian Duality Approach to Active Learning [119.36233726867992]
トレーニングデータのサブセットのみをラベル付けするバッチアクティブな学習問題を考察する。
制約付き最適化を用いて学習問題を定式化し、各制約はラベル付きサンプルにモデルの性能を拘束する。
数値実験により,提案手法は最先端の能動学習法と同等かそれ以上に機能することを示した。
論文 参考訳(メタデータ) (2022-02-08T19:18:49Z) - SSSE: Efficiently Erasing Samples from Trained Machine Learning Models [103.43466657962242]
サンプル消去のための効率的かつ効率的なアルゴリズムSSSEを提案する。
ある場合、SSSEは、許可されたデータだけで新しいモデルをスクラッチからトレーニングする最適な、しかし実用的でない金の標準と同様に、サンプルをほぼ消去することができる。
論文 参考訳(メタデータ) (2021-07-08T14:17:24Z) - Manifold-based Test Generation for Image Classifiers [7.226144684379191]
画像分類ニューラルネットワークをテストするには、信頼を刺激するのに十分な現実的なテストデータを取得する必要がある。
本稿では,これらの課題に対処するための新しい枠組みを提案する。
実験により、この手法により、十分に訓練されたモデルであっても、何千もの現実的かつフォールトレベリングなテストケースを効率的に生成できることが示された。
論文 参考訳(メタデータ) (2020-02-15T07:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。