論文の概要: Understanding When Tree of Thoughts Succeeds: Larger Models Excel in Generation, Not Discrimination
- arxiv url: http://arxiv.org/abs/2410.17820v1
- Date: Wed, 23 Oct 2024 12:26:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:56:18.490962
- Title: Understanding When Tree of Thoughts Succeeds: Larger Models Excel in Generation, Not Discrimination
- Title(参考訳): 思考のツリーがいつ理解されるか: 差別ではなく、世代別Excelの大型モデル
- Authors: Qiqi Chen, Xinpeng Wang, Philipp Mondorf, Michael A. Hedderich, Barbara Plank,
- Abstract要約: Tree of Thoughts (ToT) は、推論ステップを提案するジェネレータと、どのステップを実装するかを決定する識別器を使用する推論戦略である。
我々は、ToTが最も有益である条件をよりよく理解するために、ジェネレータと識別器の役割を別々に分析する。
- 参考スコア(独自算出の注目度): 27.45208262187179
- License:
- Abstract: Tree of Thoughts (ToT) is a reasoning strategy for Large Language Models (LLMs) that employs a generator to suggest reasoning steps and a discriminator to decide which steps to implement. ToT demonstrates strong performance on reasoning tasks, often surpassing simple methods such as Input-Output (IO) prompting and Chain-of-Thought (CoT) reasoning. However, ToT does not consistently outperform such simpler methods across all models, leaving large knowledge gaps on the conditions under which ToT is most beneficial. In this paper, we analyze the roles of the generator and discriminator separately to better understand the conditions when ToT is beneficial. We find that the generator plays a more critical role than the discriminator in driving the success of ToT. While using even a smaller model as the discriminator, scaling the generator leads to notable improvements in ToT performance, whereas scaling the discriminator with a fixed generator yields only marginal gains. Our results show that models across different scales exhibit comparable discrimination capabilities, yet differ significantly in their generative performance for ToT.
- Abstract(参考訳): Tree of Thoughts (ToT) は、Large Language Models (LLM) の推論戦略であり、推論ステップを提案するジェネレータと、どのステップを実装するかを決定する識別器を使用する。
ToTは推論タスクに強いパフォーマンスを示し、IO(Input-Output)プロンプトやCoT(Chain-of-Thought)推論といった単純なメソッドを上回ります。
しかし、ToTは全てのモデルでそのような単純な手法を一貫して上回り、ToTが最も有益である条件に対する大きな知識ギャップを残している。
本稿では,ToTが有用である条件をよりよく理解するために,生成器と識別器の役割を別々に分析する。
ToTの成功を促進する上で, ジェネレータは識別器よりも重要な役割を担っていることがわかった。
より小さなモデルを判別器として使用する一方で、ジェネレータのスケーリングはToTの性能を顕著に向上させ、一方、固定ジェネレータによる判別器のスケーリングは限界ゲインしか得られない。
以上の結果から,異なるスケールのモデルでは同等の識別能力を示すが,ToTの生成性能は著しく異なることがわかった。
関連論文リスト
- Fine-Tuning with Divergent Chains of Thought Boosts Reasoning Through Self-Correction in Language Models [63.36637269634553]
本稿では,複数の推論連鎖を比較するためにモデルを必要とすることによって,性能を向上する新しい手法を提案する。
DCoTデータセットの命令チューニングにより、より小さく、よりアクセスしやすい言語モデルの性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-07-03T15:01:18Z) - Prompt Optimization via Adversarial In-Context Learning [51.18075178593142]
adv-ICLは、ジェネレータとディスクリミネータの間の2プレイヤーゲームとして実装される。
ジェネレータは、判別器を騙すのに十分な出力を生成する。
本稿では,Adv-ICLが最先端のプロンプト最適化技術を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-12-05T09:44:45Z) - Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection [73.31406286956535]
姿勢検出タスクにLadder-of-Thought(LoT)を導入する。
LoTは、小さなLMに高品質な外部知識を同化させ、生成した中間的論理を精査するように指示する。
実験では, 姿勢検出タスクにおけるCoTのGPT-3.5よりも16%改善し, 10%向上した。
論文 参考訳(メタデータ) (2023-08-31T14:31:48Z) - SCOTT: Self-Consistent Chain-of-Thought Distillation [68.40232422158569]
大規模言語モデル(LM)は、チェーン・オブ・シークレット・プロンプトを通じて予測のための自由テキスト論理を生成する。
そこで本研究では,教師モデルから,小規模で自己整合的なCoTモデルを学習するための忠実な知識蒸留法を提案する。
忠実蒸留を確実にするために,教師生成の合理性を用いて,反実的推論目的の学生LMを学習する。
論文 参考訳(メタデータ) (2023-05-03T03:47:00Z) - Reasoning Circuits: Few-shot Multihop Question Generation with
Structured Rationales [11.068901022944015]
連鎖論理生成は多段階推論タスクの性能を向上させることが示されている。
極めて低い監督体制下でのマルチホップ質問生成にチェーン・オブ・インスパイアされた構造的合理的生成を適用するための新しい枠組みを導入する。
論文 参考訳(メタデータ) (2022-11-15T19:36:06Z) - Why do you think that? Exploring Faithful Sentence-Level Rationales
Without Supervision [60.62434362997016]
文レベルで忠実な論理を出力するモデルを作成するために,異なる訓練枠組みを提案する。
本モデルでは,各理性に基づいて各課題を個別に解決し,その課題を最もよく解決した者に高いスコアを割り当てることを学ぶ。
論文 参考訳(メタデータ) (2020-10-07T12:54:28Z) - Discriminator Contrastive Divergence: Semi-Amortized Generative Modeling
by Exploring Energy of the Discriminator [85.68825725223873]
GAN(Generative Adversarial Networks)は、高次元データのモデリングにおいて大きな可能性を秘めている。
本稿では,WGANの識別器の特性を活かした識別器コントラストの多様性について紹介する。
我々は、合成データと実世界の画像生成ベンチマークの両方において、大幅に改善された生成の利点を実証する。
論文 参考訳(メタデータ) (2020-04-05T01:50:16Z) - The Benefits of Pairwise Discriminators for Adversarial Training [1.7188280334580193]
ペアワイズ判別器を活用することで目的のファミリーを導入し、生成元のみを収束させる必要があることを示す。
我々は局所収束のための十分な条件を提供し、判別器と生成器の選択を導く能力バランスを特徴付ける。
提案手法により,より高解像度な画像を生成することができることを示す。
論文 参考訳(メタデータ) (2020-02-20T08:43:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。