論文の概要: A Privacy-Preserving Recommender for Filling Web Forms Using a Local Large Language Model
- arxiv url: http://arxiv.org/abs/2509.01527v2
- Date: Wed, 03 Sep 2025 15:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.73973
- Title: A Privacy-Preserving Recommender for Filling Web Forms Using a Local Large Language Model
- Title(参考訳): 局所的大言語モデルを用いたWebフォームへのプライバシ保護レコメンダ
- Authors: Amirreza Nayyeri, Abbas Rasoolzadegan,
- Abstract要約: Webアプリケーションは、教育、金融、電子商取引といった重要な領域でますます使われている。
フェールフリーのパフォーマンスを評価する効果的な方法はWebフォームテストである。
本稿では,大規模言語モデルを用いてローカルに動作するプライバシ保護レコメンデータを提案する。
- 参考スコア(独自算出の注目度): 2.4493299476776778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Web applications are increasingly used in critical domains such as education, finance, and e-commerce. This highlights the need to ensure their failure-free performance. One effective method for evaluating failure-free performance is web form testing, where defining effective test scenarios is key to a complete and accurate evaluation. A core aspect of this process involves filling form fields with suitable values to create effective test cases. However, manually generating these values is time-consuming and prone to errors. To address this, various tools have been developed to assist testers. With the appearance of large language models (LLMs), a new generation of tools seeks to handle this task more intelligently. Although many LLM-based tools have been introduced, as these models typically rely on cloud infrastructure, their use in testing confidential web forms raises concerns about unintended data leakage and breaches of confidentiality. This paper introduces a privacy-preserving recommender that operates locally using a large language model. The tool assists testers in web form testing by suggesting effective field values. This tool analyzes the HTML structure of forms, detects input types, and extracts constraints based on each field's type and contextual content, guiding proper field filling.
- Abstract(参考訳): Webアプリケーションは、教育、金融、電子商取引といった重要な領域でますます使われている。
これは、障害のないパフォーマンスを保証する必要性を強調します。
フェールフリーのパフォーマンスを評価する効果的な方法の1つは、Webフォームテストであり、効果的なテストシナリオを定義することが、完全かつ正確な評価の鍵となる。
このプロセスの中核的な側面は、効果的なテストケースを作成するのに適切な値でフォームフィールドを埋めることである。
しかし、手動でこれらの値を生成するのは時間がかかり、エラーを起こしやすい。
これを解決するために、テスターを支援する様々なツールが開発されている。
大規模言語モデル(LLM)の出現により、新しい世代のツールがこのタスクをよりインテリジェントに扱おうとしている。
LLMベースのツールは多く導入されているが、これらのモデルは一般的にクラウドインフラストラクチャに依存しているため、機密Webフォームのテストでの使用は意図しないデータ漏洩や機密性の侵害に対する懸念を引き起こす。
本稿では,大規模言語モデルを用いてローカルに動作するプライバシ保護レコメンデータを提案する。
このツールは、効果的なフィールド値を提案することで、Webフォームテストのテスタを支援する。
このツールはフォームのHTML構造を分析し、入力型を検出し、各フィールドのタイプとコンテキストコンテンツに基づいて制約を抽出し、適切なフィールドフィリングを導く。
関連論文リスト
- CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Large Language Models for Automated Web-Form-Test Generation: An Empirical Study [8.32635005234879]
大規模言語モデル(LLM)は文脈テキスト生成に大きな可能性を示している。
異なるLLMを比較した比較研究は、Web-form-test 生成についてはまだ報告されていない。
本稿では,鍵となる文脈情報を抽出する3つのHTML構造解析手法を提案する。
論文 参考訳(メタデータ) (2024-05-16T10:21:03Z) - Automating REST API Postman Test Cases Using LLM [0.0]
本稿では,大規模言語モデルを用いたテストケースの自動生成手法の探索と実装について述べる。
この方法論は、テストケース生成の効率性と有効性を高めるために、Open AIの使用を統合する。
この研究で開発されたモデルは、手作業で収集したポストマンテストケースやさまざまなRest APIのインスタンスを使ってトレーニングされている。
論文 参考訳(メタデータ) (2024-04-16T15:53:41Z) - Semantic Constraint Inference for Web Form Test Generation [6.0759036120654315]
我々は、Webフォームの自動テスト生成のためのFormNexusと呼ばれる革新的なアプローチを導入する。
FormNexusは、個々のフォーム要素とそれらの関係から意味的な洞察を導き出すことを強調している。
GPT-4と組み合わされたFormNexusは,フォームサブミッション状態において89%のカバレッジを実現していることを示す。
論文 参考訳(メタデータ) (2024-02-01T19:10:05Z) - Are We Testing or Being Tested? Exploring the Practical Applications of
Large Language Models in Software Testing [0.0]
LLM(Large Language Model)は、コヒーレントなコンテンツを生成する最先端の人工知能モデルである。
LLMは、ソフトウェアテストを含むソフトウェア開発において重要な役割を担います。
本研究では,産業環境でのソフトウェアテストにおけるLCMの実用化について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:30:37Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。