論文の概要: Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection
- arxiv url: http://arxiv.org/abs/2308.16763v1
- Date: Thu, 31 Aug 2023 14:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 14:01:13.358416
- Title: Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection
- Title(参考訳): Ladder-of-Thought:知識をスタンス検出のステップとして使う
- Authors: Kairui Hu, Ming Yan, Joey Tianyi Zhou, Ivor W. Tsang, Wen Haw Chong,
Yong Keong Yap
- Abstract要約: 姿勢検出のためのLadder-of-Thought(LoT)を導入する。
LoTはモデルに高品質な外部知識を組み込むことを指示し、それが生成する中間的論理性を強化する。
LoTは効率と精度のバランスを保ち、スタンス検出のための適応的で効率的なフレームワークとなる。
- 参考スコア(独自算出の注目度): 73.31406286956535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chain-of-Thought Prompting (CoT) reinforces the reasoning capabilities of
Large Language Models (LLMs) through the generation of intermediate rationales.
However, these enhancements predominantly benefit large-scale models, leaving
small LMs without significant performance improvements when directly applying
CoT. Despite the advanced reasoning capabilities of LLMs, CoT relies primarily
on their pre-trained internal knowledge. The external knowledge that is
previously unknown to the model remains unexploited. This omission becomes
pronounced in tasks such as stance detection, where the external background
knowledge plays a pivotal role. Additionally, the large-scale architecture of
LLMs inevitably present efficiency challenges during deployment. To address
these challenges, we introduce the Ladder-of-Thought (LoT) for stance
detection. Grounded in a dual-phase Cascaded Optimization framework, LoT
directs the model to incorporate high-quality external knowledge, enhancing the
intermediate rationales it generates. These bolstered rationales subsequently
serve as the foundation for more precise predictions - akin to how a ladder
facilitates reaching elevated goals. LoT achieves a balance between efficiency
and accuracy, making it an adaptable and efficient framework for stance
detection. Our empirical evaluations underscore LoT's effectiveness, marking a
16% improvement over ChatGPT and a 10% enhancement compared to ChatGPT with
CoT.
- Abstract(参考訳): CoT(Chain-of-Thought Prompting)は、中間論理の生成を通じて、LLM(Large Language Models)の推論能力を強化する。
しかし、これらの拡張は大規模モデルに大きく貢献し、CoTを直接適用する場合、小さなLMは大幅な性能改善を伴わないままであった。
LLMの高度な推論能力にもかかわらず、CoTは主に訓練済みの内部知識に依存している。
それまでモデルに知られていない外部の知識は未解明のままである。
この省略は、外部の背景知識が重要な役割を果たすスタンス検出のようなタスクで顕著になる。
加えて、LLMの大規模アーキテクチャは、デプロイメント中の効率上の課題を必然的に提示する。
これらの課題に対処するため,姿勢検出のためのLadder-of-Thought(LoT)を導入する。
二相カスケード最適化フレームワークを基盤として、LoTはモデルに高品質な外部知識を取り入れ、生成する中間的論理性を高めるよう指示する。
これらの確固たる合理性は、その後、より正確な予測の基礎となる。
LoTは効率と精度のバランスを保ち、スタンス検出のための適応的で効率的なフレームワークとなる。
実験結果では,チャットgptよりも16%改善し,cotを用いたチャットgptと比較して10%向上した。
関連論文リスト
- Stepwise Perplexity-Guided Refinement for Efficient Chain-of-Thought Reasoning in Large Language Models [56.37421741507468]
CoT推論は大規模言語モデル(LLM)の性能を大幅に向上させた。
本稿では,その重要性の尺度としてパープレキシティを用いた批判的推論ステップの同定手法を提案する。
論文 参考訳(メタデータ) (2025-02-18T20:04:51Z) - Coarse-to-Fine Process Reward Modeling for Mathematical Reasoning [11.15613673478208]
プロセス・リワード・モデル (Process Reward Model, PRM) は数学的推論において重要な役割を担い、高品質なプロセスデータを必要とする。
我々は,Large Language Models (LLM) が生成する推論ステップが,厳密なインクリメンタルな情報表示に失敗することが多く,冗長性が生じることを観察する。
本稿では,冗長なステップを検出するための簡易かつ効果的な粗大な戦略CFPRMを提案する。
論文 参考訳(メタデータ) (2025-01-23T12:44:45Z) - Step-KTO: Optimizing Mathematical Reasoning through Stepwise Binary Feedback [94.25162866972077]
Step-KTOは、プロセスレベルと結果レベルのバイナリフィードバックを組み合わせたトレーニングフレームワークである。
実験の結果,Step-KTOは最終回答の精度と中間推論の質の両方を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2025-01-18T15:38:03Z) - Understanding Chain-of-Thought in LLMs through Information Theory [16.78730663293352]
我々は,情報理論レンズを用いて,大規模言語モデル(LLM)におけるChain-of-Thought(CoT)推論を定式化する。
具体的には、各推論ステップにおける情報ゲインの定量化を行い、障害モードの識別を可能にする。
提案手法の有効性を,玩具およびGSM-8Kデータに対する広範囲な実験により実証し,既存の結果に基づく手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-11-18T19:14:36Z) - Rational Metareasoning for Large Language Models [5.5539136805232205]
大きな言語モデル(LLM)を使用するためのコアテクニックとして,推論への関与を促す声が上がっている。
本研究は,認知科学で用いられるメタレゾニングの計算モデルに基づく新しいアプローチを導入する。
我々は不必要な推論を罰することで計算の価値を組み込む報酬関数を開発する。
論文 参考訳(メタデータ) (2024-10-07T23:48:52Z) - Strategic Chain-of-Thought: Guiding Accurate Reasoning in LLMs through Strategy Elicitation [16.350747493026432]
CoT(Chain-of-Thought)パラダイムは,大規模言語モデル(LLM)の推論能力向上のための重要なアプローチとして登場した。
中間的推論ステップを生成する前に戦略的知識を統合することでLCM性能を向上するための textbfStrategic Chain-of-Thought (SCoT) を提案する。
SCoTは1つのプロンプトの中で2段階のアプローチを採用し、まず効果的な問題解決戦略を導き、次に高品質なCoTパスと最終回答の生成を導くのに使用される。
論文 参考訳(メタデータ) (2024-09-05T06:28:05Z) - Learning Planning-based Reasoning by Trajectories Collection and Process Reward Synthesizing [61.98556945939045]
収集された軌道上でのDPO(Direct Preference Optimization)を通して計画に基づく推論を学習するフレームワークを提案する。
論理的推論ベンチマークの挑戦的な結果から,学習フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2024-02-01T15:18:33Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。