論文の概要: Hierarchical Prompting Assists Large Language Model on Web Navigation
- arxiv url: http://arxiv.org/abs/2305.14257v3
- Date: Mon, 30 Oct 2023 00:55:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 22:12:31.409302
- Title: Hierarchical Prompting Assists Large Language Model on Web Navigation
- Title(参考訳): 階層型プロンプティング支援 Webナビゲーションにおける大規模言語モデル
- Authors: Abishek Sridhar, Robert Lo, Frank F. Xu, Hao Zhu, Shuyan Zhou
- Abstract要約: 大規模言語モデル(LLM)は、対話的な意思決定タスクにおける複雑な観察処理に苦労する。
この問題を緩和するための単純な階層的プロンプトアプローチを提案する。
タスク成功率を6.2%向上させる手法として,従来の最先端技術よりも優れた手法を提案する。
- 参考スコア(独自算出の注目度): 32.2628677474152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) struggle on processing complicated observations
in interactive decision making tasks. To alleviate this issue, we propose a
simple hierarchical prompting approach. Diverging from previous prompting
approaches that always put the full observation (e.g. a web page) to the
prompt, we propose to first construct an action-aware observation which is more
condensed and relevant with a dedicated SUMMARIZER prompt. The ACTOR prompt
then predicts the next action based on the summarized observation. While our
method has broad applicability, we particularly demonstrate its efficacy in the
complex domain of web navigation where a full observation often contains
redundant and irrelevant information. Our approach outperforms the previous
state-of-the-art prompting mechanics by 6.2% on task success rate,
demonstrating its potential on interactive decision making tasks with long
observation traces.
- Abstract(参考訳): 大規模言語モデル(LLM)は、対話的な意思決定タスクにおける複雑な観察処理に苦労する。
この問題を軽減するために,簡単な階層的プロンプト手法を提案する。
常に完全な観察(例えばwebページ)をプロンプトに置く従来のプロンプトアプローチから逸脱し、より凝縮され、専用の要約プロンプトと関係のあるアクションアウェアな観察を最初に構築することを提案する。
ACTORプロンプトは、要約された観察に基づいて次のアクションを予測する。
提案手法は適用範囲が広いが,Webナビゲーションの複雑な領域において,完全な観測が冗長で無関係な情報を含む場合が特に有効であることを示す。
提案手法は,タスク成功率を6.2%向上させ,長い観察トレースを持つ対話的意思決定タスクの可能性を示した。
関連論文リスト
- About Time: Advances, Challenges, and Outlooks of Action Understanding [57.76390141287026]
この調査は、様々なタスクにおけるユニモーダルおよびマルチモーダルな行動理解の進歩を包括的にレビューする。
我々は,現在普及している課題,広く採用されているデータセットの概要,そして最近の進歩を重視したセミナー作品の調査に焦点をあてる。
論文 参考訳(メタデータ) (2024-11-22T18:09:27Z) - TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems [21.312052922118585]
時間的関係抽出(TRE)は、出来事や行動の進化を把握し、関連するタスクのワークフローを形成することを目的としている。
本稿では,TRE(TemPrompt)のためのマルチタスク・プロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T01:52:37Z) - PALM: Predicting Actions through Language Models [74.10147822693791]
本稿では,長期的行動予測の課題に取り組むアプローチであるPALMを紹介する。
本手法は,従来の行動系列を追跡する行動認識モデルと,関連する環境の詳細を記述するための視覚言語モデルを含む。
実験の結果,PALMは長期的な行動予測作業において最先端の手法を超越していることがわかった。
論文 参考訳(メタデータ) (2023-11-29T02:17:27Z) - Active Sensing with Predictive Coding and Uncertainty Minimization [0.0]
2つの生物学的計算から着想を得たエンボディード探索のためのエンドツーエンドの手法を提案する。
まず,迷路ナビゲーションタスクによるアプローチを実演し,環境の遷移分布と空間的特徴を明らかにする。
本モデルでは,視覚シーンを効率的に分類するための探索によって,教師なし表現を構築する。
論文 参考訳(メタデータ) (2023-07-02T21:14:49Z) - On the Role of Attention in Prompt-tuning [90.97555030446563]
本研究では,一層アテンションアーキテクチャのプロンプトチューニングについて検討し,文脈混合モデルについて検討する。
ソフトマックス・プロンプト・アテンションは, ソフトマックス・自己アテンションやリニア・プロンプト・アテンションよりも明らかに表現力が高いことを示す。
また、実際のデータセットに関する理論的洞察を検証し、モデルが文脈関連情報にどのように対応できるかを示す実験も提供する。
論文 参考訳(メタデータ) (2023-06-06T06:23:38Z) - Identifying Auxiliary or Adversarial Tasks Using Necessary Condition
Analysis for Adversarial Multi-task Video Understanding [34.75145779372538]
本稿では,モデルが適切に動作すべき補助タスクと,モデルがうまく動作すべきでない逆タスクの両方を組み込むことで,マルチタスク学習の一般化概念を提案する。
提案する新たなフレームワークであるAMT(Adversarial Multi-Task Neural Networks)は,NAAがシーン認識であると判断した敵タスクをペナルティ化する。
提案手法は, 精度を3%向上させるとともに, 相関バイアスのシーン特徴ではなく, アクション特徴への参画を促す。
論文 参考訳(メタデータ) (2022-08-22T06:26:11Z) - AntPivot: Livestream Highlight Detection via Hierarchical Attention
Mechanism [64.70568612993416]
本稿では,Livestream Highlight Detectionという新たなタスクを定式化し,上記の課題を議論・分析し,新しいアーキテクチャAntPivotを提案する。
我々は、このタスクをインスタンス化し、我々のモデルの性能を評価するために、完全に注釈付きデータセットAntHighlightを構築した。
論文 参考訳(メタデータ) (2022-06-10T05:58:11Z) - PROMPT WAYWARDNESS: The Curious Case of Discretized Interpretation of
Continuous Prompts [99.03864962014431]
目標タスクの微調整連続プロンプトは、フルモデルの微調整に代わるコンパクトな代替品として登場した。
実際には、連続的なプロンプトによって解決されたタスクと、最も近い隣人との間の「方向」の挙動を観察する。
論文 参考訳(メタデータ) (2021-12-15T18:55:05Z) - Planning to Explore via Self-Supervised World Models [120.31359262226758]
Plan2Exploreは自己監督型強化学習エージェントである。
我々は、自己監督型探索と、新しいタスクへの迅速な適応に対する新しいアプローチを提案する。
Plan2Exploreは、訓練の監督やタスク固有の相互作用がなければ、自己監督型の探査方法よりも優れている。
論文 参考訳(メタデータ) (2020-05-12T17:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。