論文の概要: Re-TASK: Revisiting LLM Tasks from Capability, Skill, and Knowledge Perspectives
- arxiv url: http://arxiv.org/abs/2408.06904v2
- Date: Thu, 3 Oct 2024 01:27:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 07:53:35.811315
- Title: Re-TASK: Revisiting LLM Tasks from Capability, Skill, and Knowledge Perspectives
- Title(参考訳): Re-TASK: LLMタスクの能力、スキル、知識の観点からの再考
- Authors: Zhihu Wang, Shiwan Zhao, Yu Wang, Heyuan Huang, Sitao Xie, Yubo Zhang, Jiaxin Shi, Zhixing Wang, Hongyan Li, Junchi Yan,
- Abstract要約: CoT (Chain-of-Thought) は複雑な問題を解決する重要な方法となっている。
大規模言語モデル(LLM)はドメイン固有のタスクを正確に分解するのに苦労することが多い。
本稿では,LLMタスクを能力,スキル,知識の観点から再検討する理論モデルであるRe-TASKフレームワークを紹介する。
- 参考スコア(独自算出の注目度): 54.14429346914995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Chain-of-Thought (CoT) paradigm has become a pivotal method for solving complex problems. However, its application to intricate, domain-specific tasks remains challenging, as large language models (LLMs) often struggle to accurately decompose these tasks and, even when decomposition is correct, fail to execute the subtasks effectively. This paper introduces the Re-TASK framework, a novel theoretical model that revisits LLM tasks from the perspectives of capability, skill, and knowledge, drawing on the principles of Bloom's Taxonomy and Knowledge Space Theory. While CoT offers a workflow perspective on tasks, the Re-TASK framework introduces a Chain-of-Learning view, illustrating how tasks and their corresponding subtasks depend on various capability items. Each capability item is further dissected into its constituent aspects of knowledge and skills. Our framework reveals that many CoT failures in domain-specific tasks stem from insufficient knowledge or inadequate skill adaptation. In response, we combine CoT with the Re-TASK framework and implement a carefully designed Re-TASK prompting strategy to improve task performance. Specifically, we identify core capability items linked to tasks and subtasks, then strengthen these capabilities through targeted knowledge injection and skill adaptation. We validate the Re-TASK framework on three datasets across the law, finance, and mathematics domains, achieving significant improvements over the baseline models. Notably, our approach yields a remarkable 44.42% improvement with the Yi-1.5-9B model and a 33.08% improvement with the Llama3-Chinese-8b on the legal dataset. These experimental results confirm the effectiveness of the Re-TASK framework, demonstrating substantial enhancements in both the performance and applicability of LLMs.
- Abstract(参考訳): CoT(Chain-of-Thought)パラダイムは、複雑な問題を解決するための重要な方法となっている。
しかし、大規模言語モデル(LLM)はこれらのタスクを正確に分解するのに苦労し、たとえ分解が正しいとしても、サブタスクを効果的に実行できないため、複雑なドメイン固有タスクへの応用は依然として困難である。
本稿では,ブルームの分類・知識空間理論の原理に基づいて,能力・技能・知識の観点からLLMタスクを再考する新たな理論モデルであるRe-TASKフレームワークを紹介する。
CoTはタスクに関するワークフローの視点を提供するが、Re-TASKフレームワークはChain-of-Learningビューを導入し、タスクとそれに対応するサブタスクがさまざまな機能項目に依存するかを説明する。
各能力項目は、その知識とスキルの構成要素にさらに分離される。
我々のフレームワークは、ドメイン固有のタスクにおける多くのCoT障害が、知識不足やスキル適応の不十分に起因することを明らかにしている。
これに対し,CoT と Re-TASK フレームワークを併用し,タスク性能向上戦略を慎重に設計した Re-TASK を実装した。
具体的には、タスクやサブタスクに関連付けられたコア機能項目を特定し、目標とする知識注入やスキル適応を通じてこれらの機能を強化する。
我々はRe-TASKフレームワークを法、金融、数学の領域にまたがる3つのデータセット上で検証し、ベースラインモデルよりも大幅に改善した。
特に,Yi-1.5-9Bモデルでは44.42%,法的データセットではLlama3- Chinese-8bでは33.08%の改善が見られた。
これらの実験により, Re-TASKフレームワークの有効性が確認され, LLMの性能と適用性の両方が大幅に向上した。
関連論文リスト
- BloomWise: Enhancing Problem-Solving capabilities of Large Language Models using Bloom's-Taxonomy-Inspired Prompts [59.83547898874152]
我々は,Bloomの分類にインスパイアされた新しいプロンプト技術であるBloomWiseを導入し,Large Language Models(LLMs)の性能を向上させる。
より洗練された認知スキルを身につける必要性に関する決定は、LLMによる自己評価に基づいている。
4つの一般的な算数推論データセットの広範な実験において,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-05T09:27:52Z) - Learn it or Leave it: Module Composition and Pruning for Continual Learning [48.07144492109635]
MoCL-Pは知識統合と計算オーバーヘッドのバランスをとる軽量な連続学習手法である。
評価の結果,MoCL-Pは最先端性能を実現し,パラメータ効率を最大3倍向上することがわかった。
論文 参考訳(メタデータ) (2024-06-26T19:18:28Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Quartet Logic: A Four-Step Reasoning (QLFR) framework for advancing
Short Text Classification [5.561563686684933]
短いテキスト分類(STC)は、現代デジタルプラットフォームで広く普及している短いが実質的な内容の処理と理解に不可欠である。
LLM(Large Language Models)とCoT(Chain-of-Thought)の出現により、複雑な推論タスクのパフォーマンスが大幅に向上した。
本稿では、Quartet Logic: A Four-Step Reasoning (QLFR)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2024-01-06T08:28:20Z) - Variational Curriculum Reinforcement Learning for Unsupervised Discovery
of Skills [25.326624139426514]
本稿では,VUVC(Value Uncertainty Vari Curriculum Curriculum)と呼ばれる情報理論に基づく教師なしスキル発見手法を提案する。
規則性条件下では、VUVCは、均一なカリキュラムに比べて訪問状態のエントロピーの増加を加速させる。
また,本手法によって発見された技術は,ゼロショット設定で現実のロボットナビゲーションタスクを達成できることを実証した。
論文 参考訳(メタデータ) (2023-10-30T10:34:25Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Task-Agnostic Continual Reinforcement Learning: Gaining Insights and
Overcoming Challenges [27.474011433615317]
連続学習(CL)は、一連のタスクから学習するモデルやエージェントの開発を可能にする。
タスクに依存しないCLとマルチタスク(MTL)エージェントのパフォーマンス差に寄与する要因について検討する。
論文 参考訳(メタデータ) (2022-05-28T17:59:00Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。