論文の概要: RAT: Retrieval Augmented Thoughts Elicit Context-Aware Reasoning in
Long-Horizon Generation
- arxiv url: http://arxiv.org/abs/2403.05313v1
- Date: Fri, 8 Mar 2024 13:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 19:40:20.023649
- Title: RAT: Retrieval Augmented Thoughts Elicit Context-Aware Reasoning in
Long-Horizon Generation
- Title(参考訳): RAT:ロング・ホライゾン・ジェネレーションにおける文脈認識推論の難易度向上
- Authors: Zihao Wang and Anji Liu and Haowei Lin and Jiaqi Li and Xiaojian Ma
and Yitao Liang
- Abstract要約: 思考の連鎖を反復的に修正することで、大きな言語モデルの推論と生成能力が大幅に向上する。
特に,提案手法では,タスククエリに関連する情報を検索して,各思考ステップを一つずつ修正する。
RATをGPT-3.5、GPT-4、CodeLLaMA-7bに適用すると、様々な長距離生成タスクのパフォーマンスが大幅に向上する。
- 参考スコア(独自算出の注目度): 28.08775951425144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore how iterative revising a chain of thoughts with the help of
information retrieval significantly improves large language models' reasoning
and generation ability in long-horizon generation tasks, while hugely
mitigating hallucination. In particular, the proposed method --
*retrieval-augmented thoughts* (RAT) -- revises each thought step one by one
with retrieved information relevant to the task query, the current and the past
thought steps, after the initial zero-shot CoT is generated. Applying RAT to
GPT-3.5, GPT-4, and CodeLLaMA-7b substantially improves their performances on
various long-horizon generation tasks; on average of relatively increasing
rating scores by 13.63% on code generation, 16.96% on mathematical reasoning,
19.2% on creative writing, and 42.78% on embodied task planning. The demo page
can be found at https://craftjarvis.github.io/RAT
- Abstract(参考訳): 本研究では,情報検索の助けを借りて思考の連鎖を反復的に修正することで,長期化タスクにおける大規模言語モデルの推論と生成能力を大幅に向上すると同時に,幻覚を緩和する。
特に、提案手法である*retrieval-augmented thoughts* (rat)は、タスククエリ、現在のおよび過去の思考ステップに関連する検索情報を含む各思考ステップを、最初のゼロショットcot生成後に1つずつ修正する。
RATをGPT-3.5、GPT-4、CodeLLaMA-7bに適用すると、様々な長軸生成タスクにおけるパフォーマンスが大幅に向上し、コード生成では13.63%、数学的推論では16.96%、創造的記述では19.2%、具体的タスクプランニングでは42.78%向上した。
デモページはhttps://craftjarvis.github.io/RATで見ることができる。
関連論文リスト
- Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - The Chronicles of RAG: The Retriever, the Chunk and the Generator [0.0]
本稿では,ブラジルポルトガル語のRAGの実装,最適化,評価を行うための優れたプラクティスを提案する。
我々は最初のハリー・ポッターの本についての質問に答えるための様々な方法を探究する。
論文 参考訳(メタデータ) (2024-01-15T18:25:18Z) - A Critical Review of Large Language Model on Software Engineering: An Example from ChatGPT and Automated Program Repair [19.123640635549524]
大規模言語モデル(LLM)が注目され、様々なソフトウェアエンジニアリングタスクで有望なパフォーマンスを示した。
本稿では,ChatGPTのバグ修正機能について,研究目的の異なるクリーンAPRベンチマークで概説する。
ChatGPTは、35ラウンド以内の基本的なプロンプトを使用して151のバグギープログラムのうち109を修正でき、最先端のLLM CodeT5とPLBARTを27.5%、予測精度62.4%で上回っている。
論文 参考訳(メタデータ) (2023-10-13T06:11:47Z) - Exploring the Potential of ChatGPT in Automated Code Refinement: An
Empirical Study [0.0]
最先端の言語モデルであるChatGPTは、様々な自然言語処理タスクにおいて印象的なパフォーマンスを示している。
コードレビュータスクにおけるChatGPTの機能を理解するための実証的研究を行った。
その結果,ChatGPTは高いEMとBLEUのスコアを22.78と76.44で達成し,最先端のコードレビューデータセットでは15.50と62.88しか達成していないことがわかった。
論文 参考訳(メタデータ) (2023-09-15T07:41:33Z) - Learning to Rank in Generative Retrieval [62.91492903161522]
生成的検索は、検索対象として関連する通路の識別子文字列を生成することを目的としている。
我々はLTRGRと呼ばれる生成検索のための学習 torankフレームワークを提案する。
このフレームワークは、現在の生成的検索システムを強化するために、追加の学習からランクまでのトレーニングフェーズのみを必要とする。
論文 参考訳(メタデータ) (2023-06-27T05:48:14Z) - RL4F: Generating Natural Language Feedback with Reinforcement Learning
for Repairing Model Outputs [27.777809444120827]
以前の作業では、アウトプットを修復する際のガイドとして、自然言語フィードバックを備えた言語モデルの提供が提案されていた。
我々は,GPT-3のエンドタスク性能を最大化するために,批判生成を訓練するマルチエージェント協調フレームワークRL4Fを紹介する。
複数のテキスト類似度指標の相対的な改善は、他の学習、検索強化、あるいはプロンプトに基づく批判ジェネレータと比べて最大10%向上する。
論文 参考訳(メタデータ) (2023-05-15T17:57:16Z) - Active Retrieval Augmented Generation [123.68874416084499]
外部知識資源から情報を取得することで、大きな言語モデル(LM)を拡張することは、有望な解決策である。
ほとんどの既存の検索拡張LMは、入力に基づいて一度だけ情報を検索する検索と生成のセットアップを採用している。
本稿では,将来的な内容を予測するために,文の予測を反復的に利用する汎用手法であるフォワード・フォワード・アクティブ・レトリヴァル・ジェネレーション・ジェネレーション(FLARE)を提案する。
論文 参考訳(メタデータ) (2023-05-11T17:13:40Z) - Grounded Keys-to-Text Generation: Towards Factual Open-Ended Generation [92.1582872870226]
そこで我々は,新しい接地型キー・ツー・テキスト生成タスクを提案する。
タスクは、ガイドキーと接地パスのセットが与えられたエンティティに関する事実記述を生成することである。
近年のQAに基づく評価手法に着想を得て,生成した記述の事実的正当性を示す自動計量MAFEを提案する。
論文 参考訳(メタデータ) (2022-12-04T23:59:41Z) - LaPraDoR: Unsupervised Pretrained Dense Retriever for Zero-Shot Text
Retrieval [55.097573036580066]
実験結果から,LaPraDoRは教師付き高密度検索モデルと比較して最先端の性能が得られることがわかった。
再ランクと比較すると,1ミリ秒 (22.5倍高速) でレキシコン強化手法を動作させることができるが,性能は良好である。
論文 参考訳(メタデータ) (2022-03-11T18:53:12Z) - Generative Conversational Networks [67.13144697969501]
本稿では,対話エージェントが独自のラベル付き学習データを生成することを学習する,生成会話ネットワーク(Generative Conversational Networks)というフレームワークを提案する。
そこで本研究では,シードデータから学習したベースラインモデルに対して,意図検出が平均35%,スロットタグが平均21%向上したことを示す。
論文 参考訳(メタデータ) (2021-06-15T23:19:37Z) - Procedural Content Generation: Better Benchmarks for Transfer
Reinforcement Learning [2.0196229393131726]
強化学習の移行は、より早く学習し、より複雑な方法を学ぶことを約束する。
2018年からのディープラーニングの採用は驚くほど遅かったことに注意が必要だ。
ディープラーニングはTRLの最大の課題である一般化をまだ解決していない。
論文 参考訳(メタデータ) (2021-05-31T08:21:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。