論文の概要: "What's important here?": Opportunities and Challenges of Using LLMs in
Retrieving Information from Web Interfaces
- arxiv url: http://arxiv.org/abs/2312.06147v1
- Date: Mon, 11 Dec 2023 06:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 16:55:40.677855
- Title: "What's important here?": Opportunities and Challenges of Using LLMs in
Retrieving Information from Web Interfaces
- Title(参考訳): 「ここで何が重要か?」 : Web インタフェースからの情報検索における LLM の利用の可能性と課題
- Authors: Faria Huq, Jeffrey P. Bigham, Nikolas Martelaro
- Abstract要約: 本研究では,大規模言語モデル (LLM) を用いて,Web インターフェースにおいてユーザが与えられたクエリに対して重要な要素を検索し,発見する方法について検討する。
私たちの経験的な実験によると、LLMは重要なUI要素を取得する上で適切なレベルのパフォーマンスを示しますが、改善の余地は依然としてあります。
- 参考スコア(独自算出の注目度): 19.656406003275713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) that have been trained on a corpus that includes
large amount of code exhibit a remarkable ability to understand HTML code. As
web interfaces are primarily constructed using HTML, we design an in-depth
study to see how LLMs can be used to retrieve and locate important elements for
a user given query (i.e. task description) in a web interface. In contrast with
prior works, which primarily focused on autonomous web navigation, we decompose
the problem as an even atomic operation - Can LLMs identify the important
information in the web page for a user given query? This decomposition enables
us to scrutinize the current capabilities of LLMs and uncover the opportunities
and challenges they present. Our empirical experiments show that while LLMs
exhibit a reasonable level of performance in retrieving important UI elements,
there is still a substantial room for improvement. We hope our investigation
will inspire follow-up works in overcoming the current challenges in this
domain.
- Abstract(参考訳): 大量のコードを含むコーパスでトレーニングされた大規模言語モデル(llm)は、htmlコードを理解する素晴らしい能力を示しています。
Webインターフェースは、主にHTMLを使って構築されているため、ユーザが指定したクエリ(タスク記述)の重要要素の検索と発見にLLMをどのように使用できるか、詳細な研究を設計する。
主に自律的なWebナビゲーションに焦点を当てた以前の作業とは対照的に、この問題をアトミックな操作として分解する — LLMは、ユーザが指定したクエリに対して、Webページ内の重要な情報を識別できるのだろうか?
この分解により、LLMの現在の能力を精査し、それらがもたらす機会と課題を明らかにすることができる。
私たちの実験では、重要なui要素の検索においてllmは妥当なパフォーマンスを示していますが、改善の余地はまだあります。
この領域の現在の課題を克服するために、我々の調査がフォローアップ作業を促すことを期待しています。
関連論文リスト
- Leveraging Large Vision Language Model For Better Automatic Web GUI Testing [7.480576630392405]
本稿では,最初のLVLM駆動のエンドツーエンドWebテスト技術であるVETLを提案する。
LVLMのシーン理解機能により、VETLはローカルコンテキストに焦点を当てた有効な意味のあるテキスト入力を生成することができる。
関連GUI要素の選択は視覚的質問応答問題として定式化され、LVLMは入力ボックスと関連する要素の間の論理的接続をキャプチャする。
論文 参考訳(メタデータ) (2024-10-16T01:37:58Z) - Towards Boosting LLMs-driven Relevance Modeling with Progressive Retrieved Behavior-augmented Prompting [23.61061000692023]
本研究では,検索ログに記録されたユーザインタラクションを活用して,ユーザの暗黙の検索意図に対する洞察を得ることを提案する。
ProRBPは,探索シナリオ指向の知識を大規模言語モデルと統合するための,プログレッシブ検索行動拡張型プロンプトフレームワークである。
論文 参考訳(メタデータ) (2024-08-18T11:07:38Z) - When Search Engine Services meet Large Language Models: Visions and Challenges [53.32948540004658]
本稿では,大規模言語モデルと検索エンジンの統合が,両者の相互に利益をもたらすかどうかを詳細に検討する。
LLM(Search4LLM)の改良と,LLM(LLM4Search)を用いた検索エンジン機能の向上という,2つの主要な領域に注目した。
論文 参考訳(メタデータ) (2024-06-28T03:52:13Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - INTERS: Unlocking the Power of Large Language Models in Search with Instruction Tuning [59.07490387145391]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて印象的な機能を示している。
情報検索(IR)タスクへのそれらの適用は、自然言語における多くのIR固有の概念の頻繁な発生のため、いまだに困難である。
我々は,3つの基本IRカテゴリにまたがる20のタスクを含む新しいインストラクションチューニングデータセット InterS を導入する。
論文 参考訳(メタデータ) (2024-01-12T12:10:28Z) - Knowledge Solver: Teaching LLMs to Search for Domain Knowledge from
Knowledge Graphs [19.0797968186656]
大規模言語モデル(LLM)は汎用的であり、その創発的能力と一般化性のために異なるタスクを解くことができる。
以前の研究では、グラフニューラルネットワーク(GNN)のような追加モジュールは、外部の知識ベースから取得した知識に基づいて訓練されている。
論文 参考訳(メタデータ) (2023-09-06T15:55:01Z) - Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval Augmentation [109.8527403904657]
大規模言語モデル(LLM)は,その知識に対する信頼度が低く,内部知識と外部知識の衝突をうまく扱えないことを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
本稿では,文書を動的に活用するための簡易な手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z) - The Web Can Be Your Oyster for Improving Large Language Models [98.72358969495835]
大規模言語モデル(LLM)は、大量の世界の知識を符号化する。
我々はLLMを検索エンジンを用いて大規模ウェブで拡張することを検討する。
ウェブ上に拡張されたLLM UNIWEBを提案する。これは16の知識集約的なタスクに対して、統一されたテキスト・テキスト・フォーマットで訓練される。
論文 参考訳(メタデータ) (2023-05-18T14:20:32Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。