論文の概要: diff History for Long-Context Language Agents
- arxiv url: http://arxiv.org/abs/2312.07540v1
- Date: Tue, 12 Dec 2023 18:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 14:42:30.999170
- Title: diff History for Long-Context Language Agents
- Title(参考訳): 長期文脈言語エージェントの差分履歴
- Authors: Ulyana Piterbarg, Lerrel Pinto, Rob Fergus
- Abstract要約: 連続するテキストの観察が類似性が高いという事実を利用して、Unix diffコマンドでそれらを圧縮することを提案する。
我々は、複雑なローグのようなビデオゲームNetHackで、我々のアプローチを実証する。
ディフ・ヒストリーは、LMで利用できるテキストベースのインタラクション・ヒストリーの長さを平均4倍に向上させる。
- 参考スコア(独自算出の注目度): 37.24009814390211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language Models (LMs) offer an exciting solution for general-purpose embodied
control. However, a key technical issue arises when using an LM-based
controller: environment observations must be converted to text, which coupled
with history, leads to prohibitively large textual prompts. As a result, prior
work in LM agents is limited to restricted domains with either small
observation size or minimal needs for interaction history. In this paper, we
introduce a simple and highly effective solution to these issues. We exploit
the fact that consecutive text observations have high similarity and propose to
compress them via the Unix diff command. We demonstrate our approach in
NetHack, a complex rogue-like video game, that requires long-horizon reasoning
for decision-making and is far from solved, particularly for neural agents.
Diff history offers an average of 4x increase in the length of the text-based
interaction history available to the LM. This observational compression along
with the benefits of abstraction yields a 7x improvement in game score on
held-out environment instances over state-of-the-art baselines. It also
outperforms prior agents that use visual observations by over 40%.
- Abstract(参考訳): 言語モデル(LM)は汎用的な具体化制御のためのエキサイティングなソリューションを提供する。
しかし、lmベースのコントローラを使用すると、重要な技術的問題が発生する。 環境観察は、履歴と結合したテキストに変換されなければならず、禁止的に大きなテキストプロンプトに繋がる。
その結果、LMエージェントの先行処理は、観測サイズが小さいか、相互作用履歴に必要な最小限の領域に制限される。
本稿では,これらの問題に対して,シンプルかつ高効率な解決策を提案する。
連続するテキスト観察は類似度が高く,unix diff コマンドで圧縮することを提案している。
我々は、複雑なローグライクなビデオゲームであるNetHackにおける我々のアプローチを実証する。
diff historyは、lmで利用可能なテキストベースの対話履歴の長さを平均4倍増加させる。
この観察圧縮と抽象化の利点は、最先端のベースラインよりもホールドアウト環境インスタンスでのゲームスコアが7倍向上する。
また、視覚的観察を使用する先行エージェントの40%以上を上回ります。
関連論文リスト
- Taking a Deep Breath: Enhancing Language Modeling of Large Language Models with Sentinel Tokens [21.61634020256455]
変換器をベースとした大規模言語モデル(LLM)は、長期のコンテキストをモデル化する際に性能が低下する。
本研究では,LLMが深呼吸を可能とし,個々のテキストチャンクに含まれる情報を要約する簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-06-16T15:50:10Z) - Measuring Distributional Shifts in Text: The Advantage of Language
Model-Based Embeddings [11.393822909537796]
実運用における機械学習モデル監視の重要な部分は、入力と出力データのドリフトを測定することである。
大規模言語モデル(LLM)の最近の進歩は、意味的関係を捉える上での有効性を示している。
このような埋め込みを利用してテキストデータの分布変化を測定するクラスタリングに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-04T20:46:48Z) - Fast and Accurate Factual Inconsistency Detection Over Long Documents [19.86348214462828]
我々は,新しいチャンキング戦略を用いて,現実の不整合を検出するタスク非依存モデルであるSCALEを紹介する。
このアプローチは、様々なタスクや長い入力に対して、現実の不整合検出における最先端のパフォーマンスを実現する。
コードとデータはGitHubに公開しています。
論文 参考訳(メタデータ) (2023-10-19T22:55:39Z) - RewriteLM: An Instruction-Tuned Large Language Model for Text Rewriting [11.306772273707253]
大規模言語モデル(LLM)は、ストーリーテリングや電子メール生成といった創造的なタスクにおいて、印象的な機能を示している。
我々は,命令チューニングと強化学習のための新しい戦略を開発し,文間書き直し作業のためのLLMの整合性を向上する。
OpenRewriteEvalは、自然言語命令で表現される多種多様な書き換えタイプをカバーする新しいベンチマークである。
論文 参考訳(メタデータ) (2023-05-25T03:26:26Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - SCROLLS: Standardized CompaRison Over Long Language Sequences [62.574959194373264]
SCROLLSは長いテキストに対する推論を必要とするタスクのスイートである。
SCROLLSには要約、質問応答、自然言語推論タスクが含まれる。
すべてのデータセットを統一されたテキスト・ツー・テキスト形式で利用可能にし、モデルアーキテクチャと事前学習方法の研究を容易にするために、ライブのリーダーボードをホストします。
論文 参考訳(メタデータ) (2022-01-10T18:47:15Z) - Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues
and Documents [13.755637074366813]
SummNは、典型的な事前訓練されたLMの最大文脈長よりも長いテキストを入力するための、シンプルで柔軟で効果的な多段階フレームワークである。
LMコンテキストサイズを固定したままステージ数を調整することで任意の長さの入力テキストを処理できる。
実験の結果,SummNは従来の最先端手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-10-16T06:19:54Z) - DocNLI: A Large-scale Dataset for Document-level Natural Language
Inference [55.868482696821815]
自然言語推論(NLI)は、様々なNLP問題を解決するための統一的なフレームワークとして定式化されている。
ドキュメントレベルのNLI用に新たに構築された大規模データセットであるDocNLIを紹介する。
論文 参考訳(メタデータ) (2021-06-17T13:02:26Z) - Go Forth and Prosper: Language Modeling with Ancient Textual History [54.99143450580711]
我々は、lmが将来のテキストを予測するのに役立つ古代史からスパンを選択する補助機能を学ぶ。
選択されたテキストスパンはLMのコンテキストウィンドウに直接コピーされ、予測の少ないスパンを置き換える。
ウィキペディアの記事の難易度は7%、科学論文の難易度は12%減少しています。
論文 参考訳(メタデータ) (2021-04-18T06:57:30Z) - Universal Natural Language Processing with Limited Annotations: Try
Few-shot Textual Entailment as a Start [125.23550801424328]
Universal Few-shot Textual Entailment (UFO-Entail)
universal Few-shot Textual Entailment (UFO-Entail)を紹介する。
我々は、このフレームワークにより、事前訓練されたエンターテイメントモデルが、数ショット設定で新しいエンターテイメントドメインでうまく機能できることを実証する。
論文 参考訳(メタデータ) (2020-10-06T09:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。