論文の概要: LLM Tree Search
- arxiv url: http://arxiv.org/abs/2410.19117v1
- Date: Thu, 24 Oct 2024 19:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-28 13:37:46.728158
- Title: LLM Tree Search
- Title(参考訳): LLM木探索
- Authors: Dylan Wilson,
- Abstract要約: 本研究の目的は,AlphaGoパラダイムにヒントを得て,大規模言語モデル(LLM)で使用するための新しいシーケンス生成手法を検討することである。
提案手法では, モデル信頼度に基づいて, 異なる可能な補完点の探索木を作成し, それらの完成点を評価する。
このアプローチは、多様で一貫性のあるシーケンスの集合を生み出し、シーケンス生成における探索とエクスプロイトのバランスに関する洞察を提供することを期待しています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This project aims to investigate a novel sequence generation method inspired by the AlphaGo paradigm, adapting it for use with large language models (LLMs). The proposed approach involves creating search trees of different possible completions and evaluating these completions based on model confidence. By considering various paths in the search tree and scoring them according to the model's confidence in each completion, we can generate diverse and high-quality sequences. This research explores the implementation of this paradigm by using confidence as a proxy for response quality akin to beam search \citep{vijayakumar2016diverse}. The primary goal of this paper is to outline the paradigm and demonstrate its potential, rather than focusing on achieving perfect results. The paper will outline the reasons why we believe this paradigm has the potential to improve LLMs in the following manners: 1) increase output quality, 2) decrease errors, 3) eliminate or reduce the compound error problems, 4) generate diverse and creative completions, 5) allow for iterative problem-solving, and 6) self-training. We expect this approach to yield a set of diverse and coherent sequences, offering insights into balancing exploration and exploitation in sequence generation. Potential applications include creative text generation tasks, such as storytelling and content creation, as well as other natural language processing domains, like machine translation and automated summarization. The goal is that the model will be far more effective as it will be able to consider many possible variations allowing it to find the ideal completion. This research aims to contribute to the understanding of effective search strategies in sequence generation and their impact on generating high-quality, varied textual outputs.
- Abstract(参考訳): 本研究の目的は,AlphaGoパラダイムにインスパイアされた新しいシーケンス生成手法を大規模言語モデル(LLM)に適用することである。
提案手法では, モデル信頼度に基づいて, 異なる可能な補完点の探索木を作成し, それらの完成点を評価する。
探索木内の様々な経路を考慮し,各完了に対するモデルの信頼度に応じて評価することにより,多種多様な高品質なシーケンスを生成することができる。
本研究は,ビームサーチに類似した応答品質のプロキシとして信頼度を用いて,このパラダイムの実装について検討する。
本論文の主な目的は,完全な結果の実現に焦点をあてるのではなく,パラダイムの概要とその可能性を実証することである。
本稿は、このパラダイムがLLMを改善する可能性があると考えている理由を概説する。
1)出力品質の向上。
2) 誤りを減少させる。
3)複合エラー問題を排除又は軽減する。
4)多様で創造的な完成を生み出す。
5)反復的問題解決を許可し、
6) 自己学習。
このアプローチは、多様で一貫性のあるシーケンスの集合を生み出し、シーケンス生成における探索とエクスプロイトのバランスに関する洞察を提供することを期待しています。
潜在的なアプリケーションには、ストーリーテリングやコンテンツ作成といった創造的なテキスト生成タスクや、機械翻訳や自動要約といった他の自然言語処理ドメインが含まれる。
目標は、モデルが理想的な完了を見つけるために、多くの可能なバリエーションを考慮できるので、モデルがはるかに効果的になることである。
本研究は,シーケンス生成における効率的な探索戦略の理解と,高品質で多様なテキスト出力の生成に対するその影響に寄与することを目的とする。
関連論文リスト
- Adaptive Contrastive Search: Uncertainty-Guided Decoding for Open-Ended Text Generation [0.20971479389679337]
コントラスト探索を拡張した新しい復号法であるアダプティブコントラスト探索を導入する。
この結果から,異なるモデルアーキテクチャとデータセットの両面でのパフォーマンス向上が示唆された。
論文 参考訳(メタデータ) (2024-07-26T12:23:54Z) - PathFinder: Guided Search over Multi-Step Reasoning Paths [80.56102301441899]
木探索に基づく推論経路生成手法であるPathFinderを提案する。
動的デコードの統合により、多様な分岐とマルチホップ推論を強化する。
我々のモデルは、大きな分岐因子を持つビームサーチに類似した複雑さを反映して、よく、長く、目に見えない推論連鎖を一般化する。
論文 参考訳(メタデータ) (2023-12-08T17:05:47Z) - Large Search Model: Redefining Search Stack in the Era of LLMs [63.503320030117145]
我々は,1つの大言語モデル(LLM)で検索タスクを統一することにより,従来の検索スタックを再定義する,大規模検索モデルと呼ばれる新しい概念的フレームワークを導入する。
全てのタスクは自動回帰テキスト生成問題として定式化され、自然言語のプロンプトを使ってタスクをカスタマイズできる。
提案フレームワークは,LLMの強力な言語理解と推論能力を活用し,既存の検索スタックを簡素化しつつ,検索結果の質を向上させる能力を提供する。
論文 参考訳(メタデータ) (2023-10-23T05:52:09Z) - Revealing the Unwritten: Visual Investigation of Beam Search Trees to
Address Language Model Prompting Challenges [29.856694782121448]
我々は,大規模言語モデルに係わるいくつかの課題を,データおよびモデル固有の,言語的,社会言語的な課題に分類する。
これらの問題に対処するためには、ランナー候補とそれに対応する確率を含むモデルアウトプットの総合的な検討が必要である。
本研究では,ビーム探索木を探索するインタラクティブな視覚的手法を導入し,生成時のモデルによる決定の分析を容易にする。
論文 参考訳(メタデータ) (2023-10-17T13:20:16Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z) - Self-Convinced Prompting: Few-Shot Question Answering with Repeated
Introspection [13.608076739368949]
本稿では,大規模事前学習型言語モデルの可能性を活用する新しいフレームワークを提案する。
我々のフレームワークは、典型的な数発の連鎖プロンプトの出力を処理し、応答の正しさを評価し、回答を精査し、最終的には新しい解を生成する。
論文 参考訳(メタデータ) (2023-10-08T06:36:26Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Writing your own book: A method for going from closed to open book QA to
improve robustness and performance of smaller LLMs [0.9421843976231371]
本稿では,質問応答における大規模言語モデル(LLM)の性能向上のための2つの新しい手法を提案する。
Tree-Searchは、与えられたプロンプトのためにLLMから多様な情報を抽出するために作成されたサンプリング技術である。
自己コンテキスト化QAは、Tree-Searchを活用して、プロンプトに関連する幅広い情報を使用して、モデルが独自のコンテキストを作成することを可能にする。
論文 参考訳(メタデータ) (2023-05-18T22:47:06Z) - An Empirical Study on Learning and Improving the Search Objective for
Unsupervised Paraphrasing [0.0]
本研究では,探索対象における雑音の平滑化に関する問題について,探索力学のモデル化を学習することによって検討する。
そして、学習したモデルを元の目的関数と組み合わせて、ブートストラップ方式で探索を誘導する。
実験結果から,学習モデルと元の探索対象とが組み合わさって,スムーズな効果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-23T00:30:28Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - ProphetNet-Ads: A Looking Ahead Strategy for Generative Retrieval Models
in Sponsored Search Engine [123.65646903493614]
生成的検索モデルは、ターゲットライブラリプレフィックスツリー(Trie)のパス上でトークンによる出力トークンを生成する
本稿では,これらの問題を解析し,ProphetNet-Adsと呼ばれる生成検索モデルの今後の戦略を提案する。
最近提案されたトリエ型LSTM生成モデルと比較すると,本モデルの結果と統合結果は,ビームサイズ5でそれぞれ15.58%と18.8%改善した。
論文 参考訳(メタデータ) (2020-10-21T07:03:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。