論文の概要: Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection
- arxiv url: http://arxiv.org/abs/2308.16763v1
- Date: Thu, 31 Aug 2023 14:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 14:01:13.358416
- Title: Ladder-of-Thought: Using Knowledge as Steps to Elevate Stance Detection
- Title(参考訳): Ladder-of-Thought:知識をスタンス検出のステップとして使う
- Authors: Kairui Hu, Ming Yan, Joey Tianyi Zhou, Ivor W. Tsang, Wen Haw Chong,
Yong Keong Yap
- Abstract要約: 姿勢検出のためのLadder-of-Thought(LoT)を導入する。
LoTはモデルに高品質な外部知識を組み込むことを指示し、それが生成する中間的論理性を強化する。
LoTは効率と精度のバランスを保ち、スタンス検出のための適応的で効率的なフレームワークとなる。
- 参考スコア(独自算出の注目度): 73.31406286956535
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chain-of-Thought Prompting (CoT) reinforces the reasoning capabilities of
Large Language Models (LLMs) through the generation of intermediate rationales.
However, these enhancements predominantly benefit large-scale models, leaving
small LMs without significant performance improvements when directly applying
CoT. Despite the advanced reasoning capabilities of LLMs, CoT relies primarily
on their pre-trained internal knowledge. The external knowledge that is
previously unknown to the model remains unexploited. This omission becomes
pronounced in tasks such as stance detection, where the external background
knowledge plays a pivotal role. Additionally, the large-scale architecture of
LLMs inevitably present efficiency challenges during deployment. To address
these challenges, we introduce the Ladder-of-Thought (LoT) for stance
detection. Grounded in a dual-phase Cascaded Optimization framework, LoT
directs the model to incorporate high-quality external knowledge, enhancing the
intermediate rationales it generates. These bolstered rationales subsequently
serve as the foundation for more precise predictions - akin to how a ladder
facilitates reaching elevated goals. LoT achieves a balance between efficiency
and accuracy, making it an adaptable and efficient framework for stance
detection. Our empirical evaluations underscore LoT's effectiveness, marking a
16% improvement over ChatGPT and a 10% enhancement compared to ChatGPT with
CoT.
- Abstract(参考訳): CoT(Chain-of-Thought Prompting)は、中間論理の生成を通じて、LLM(Large Language Models)の推論能力を強化する。
しかし、これらの拡張は大規模モデルに大きく貢献し、CoTを直接適用する場合、小さなLMは大幅な性能改善を伴わないままであった。
LLMの高度な推論能力にもかかわらず、CoTは主に訓練済みの内部知識に依存している。
それまでモデルに知られていない外部の知識は未解明のままである。
この省略は、外部の背景知識が重要な役割を果たすスタンス検出のようなタスクで顕著になる。
加えて、LLMの大規模アーキテクチャは、デプロイメント中の効率上の課題を必然的に提示する。
これらの課題に対処するため,姿勢検出のためのLadder-of-Thought(LoT)を導入する。
二相カスケード最適化フレームワークを基盤として、LoTはモデルに高品質な外部知識を取り入れ、生成する中間的論理性を高めるよう指示する。
これらの確固たる合理性は、その後、より正確な予測の基礎となる。
LoTは効率と精度のバランスを保ち、スタンス検出のための適応的で効率的なフレームワークとなる。
実験結果では,チャットgptよりも16%改善し,cotを用いたチャットgptと比較して10%向上した。
関連論文リスト
- STAR: Constraint LoRA with Dynamic Active Learning for Data-Efficient
Fine-Tuning of Large Language Models [23.956842699977795]
我々は不確実性に基づくアクティブラーニングとLoRAを統合する新しい手法を提案する。
不確実性ギャップについて、ベースモデルの不確実性とフルモデルの不確実性を組み合わせた動的不確実性測定を導入する。
モデルのキャリブレーションが不十分な場合、LoRAトレーニング中に正規化手法を導入し、モデルが過度に信頼されないようにする。
論文 参考訳(メタデータ) (2024-03-02T10:38:10Z) - Learning Planning-based Reasoning by Trajectories Collection and Process Reward Synthesizing [61.98556945939045]
収集された軌道上でのDPO(Direct Preference Optimization)を通して計画に基づく推論を学習するフレームワークを提案する。
論理的推論ベンチマークの挑戦的な結果から,学習フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2024-02-01T15:18:33Z) - OVM, Outcome-supervised Value Models for Planning in Mathematical Reasoning [15.59540726867483]
我々は、ガイド付き復号法では、ステップごとの正当性を保証するよりも、不完全推論経路の可能性を評価する方が有利であると主張している。
誘導復号化のための$textitoutcomeの監督が本質的に価値モデルとして機能するという発見に触発されて、アウトカム管理価値モデル(OVM)を提案する。
GSM8KとGame of 24の2つの多段階数学的推論データセットに対する実験により,OVMモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2023-11-16T09:56:28Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Logic Constraints to Feature Importances [17.234442722611803]
AIモデルの"ブラックボックス"の性質は、診断技術や自律的ガイドなど、高度な分野における信頼性の高い応用の限界であることが多い。
近年の研究では、適切な解釈可能性のレベルが、モデル信頼性というより一般的な概念を強制できることが示されている。
本論文の基本的な考え方は,特定のタスクにおける特徴の重要性に関する人間の事前知識を利用して,モデルの適合のフェーズを整合的に支援することである。
論文 参考訳(メタデータ) (2021-10-13T09:28:38Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - On Duality Gap as a Measure for Monitoring GAN Training [2.733700237741334]
GAN(Generative adversarial Network)は、複雑なデータ分散を学習するための最もポピュラーなディープラーニングモデルのひとつです。
本稿では,この制限を理論的に理解し,双対性ギャップに対するより信頼性の高い推定法を提案する。
論文 参考訳(メタデータ) (2020-12-12T04:32:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。