論文の概要: Fast-Slow-Thinking: Complex Task Solving with Large Language Models
- arxiv url: http://arxiv.org/abs/2504.08690v1
- Date: Fri, 11 Apr 2025 16:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:20:10.704910
- Title: Fast-Slow-Thinking: Complex Task Solving with Large Language Models
- Title(参考訳): Fast-Slow-Thinking: 大規模言語モデルによる複雑なタスク解決
- Authors: Yiliu Sun, Yanfang Zhang, Zicheng Zhao, Sheng Wan, Dacheng Tao, Chen Gong,
- Abstract要約: 本稿では,FST(Fast-Slow-Thinking')と呼ばれるタスク分解手法を提案する。
FTでは、LLMは元のタスクの制約を取り除くよう促されるため、汎用的で簡潔なタスクに単純化される。
STでは、FTで取り除かれた制約をリコールするため、LLMはFTで生成された回答を改善し、元のタスクの要求を満たす。
- 参考スコア(独自算出の注目度): 49.98959729052245
- License:
- Abstract: Nowadays, Large Language Models (LLMs) have been gradually employed to solve complex tasks. To face the challenge, task decomposition has become an effective way, which proposes to divide a complex task into multiple simpler subtasks and then solve them separately so that the difficulty of the original task can be reduced. However, the performance of existing task decomposition methods can be suboptimal when the task contains overly complex logic and constraints. In this situation, the solution generated by LLMs may deviate from the original purpose of the task, or contain redundant or even erroneous content. Therefore, inspired by the fact that humans possess two thinking systems including fast thinking and slow thinking, this paper introduces a new task decomposition method termed ``Fast-Slow-Thinking'' (FST), which stimulates LLMs to solve tasks through the cooperation of Fast Thinking (FT) and Slow Thinking (ST) steps. Here FT focuses more on the general and concise aspect of the task, and ST focuses more on the details of the task. In FT, LLMs are prompted to remove the constraints of the original task, therefore simplifying it to a general and concise one. In ST, we recall the constraints removed in FT, so that LLMs can improve the answer generated in FT to meet the requirements of the original task. Therefore, our FST method enables LLMs to consider a complex problem via a human-like cognition process from coarse to fine, the effectiveness of which has been well demonstrated by the experiments on three types of tasks.
- Abstract(参考訳): 今日では、複雑なタスクを解決するために、Large Language Models (LLMs) が徐々に採用されている。
この課題に対処するために、複雑なタスクを複数の単純なサブタスクに分割し、元のタスクの難易度を下げられるように分離して解決することを提案するタスク分解が有効な方法となっている。
しかし、タスクが過度に複雑な論理と制約を含む場合、既存のタスク分解手法の性能は最適以下である。
この状況では、LLMによって生成される解は、タスクの本来の目的から逸脱したり、冗長な内容や誤った内容を含むことがある。
そこで本研究では, 高速思考(FT)とスローシンキング(ST)という2つの思考システムを人間に持つことから, 高速思考(FT)とスローシンキング(ST)の連携により, LLMの課題解決を刺激する「Fast-Slow-Thinking' (FST)」と呼ばれる新たなタスク分解手法を提案する。
ここでは、FTはタスクの一般的かつ簡潔な側面に焦点を当て、STはタスクの詳細に焦点を当てている。
FTでは、LLMは元のタスクの制約を取り除くよう促されるため、汎用的で簡潔なタスクに単純化される。
STでは、FTで削除された制約をリコールするため、LLMはFTで生成された回答を改善し、元のタスクの要求を満たす。
そこで本FST法では,人間のような認知過程を粗末から微粒にすることで複雑な問題を考慮し,その効果を3種類のタスク実験で実証した。
関連論文リスト
- MTMT: Consolidating Multiple Thinking Modes to Form a Thought Tree for Strengthening LLM [15.687878949848182]
大規模言語モデル(LLM)は、複雑な論理的推論と多段階の問題解決を必要とするタスクの制限を示している。
MTMT(Multi-thinking Modes Tree)は,LLMと対話して思考木を構築する手法である。
GPT-4o miniをベースモデルとして,パラメータ設定の違いによるMTMTの性能評価を行った。
論文 参考訳(メタデータ) (2024-12-05T09:05:30Z) - Gap-Filling Prompting Enhances Code-Assisted Mathematical Reasoning [0.0]
パターン・オブ・シント(CoT)とプログラム・オブ・シント(PoT)ファインチューニング(PoT)は、LPMの知識を小さな言語モデル(SLM)に転送する一般的な方法である。
本稿では,SLMの問題解決プロセスを強化するために,新たな2段階のプロンプト戦略であるGap-Filling Prompting(GFP)を紹介する。
論文 参考訳(メタデータ) (2024-11-08T08:52:59Z) - Supervised Fine-Tuning Achieve Rapid Task Adaption Via Alternating Attention Head Activation Patterns [47.57912649802414]
本研究では,SFTプロセスがLLMを下流タスクに適応させるプロセスについて,注意パターンの観点から検討する。
LLMは、SFT中にタスク固有のアテンションヘッドを選択的に活性化し、(2)複雑なタスクのアクティベーションパターンは基本的なタスクパターンの組み合わせであり、(3)少数のパラメータの変化は、少数のサンプル上でSFT後のアクティベーションパターンに大きな影響を与える。
論文 参考訳(メタデータ) (2024-09-24T07:34:50Z) - Seek and Solve Reasoning for Table Question Answering [49.006950918895306]
本稿では,タスク単純化時の推論プロセスが,タスク自体の単純化よりも有用であることを示す。
本稿では,LLMにまず関連情報を求め,質問に答えるように指示するSeek-and-solving Pipelineを提案する。
本稿では, SS-CoT経路を用いた実演を用いて, 複雑なTQA課題の解決にLLMを誘導する単一ステップTQA解決プロンプトをこのパイプラインから蒸留する。
論文 参考訳(メタデータ) (2024-09-09T02:41:00Z) - Thought Propagation: An Analogical Approach to Complex Reasoning with Large Language Models [62.96551299003463]
大規模言語モデルの複雑な推論能力を高めるために,textbftextitThought Propagation (TP)を提案する。
TP はまず LLM に対して,入力問題に関連する類似問題の集合を提案し,解決するよう促す。
TPは、類似問題の結果を再利用して、新しいソリューションを直接生成したり、スクラッチから得られた初期ソリューションを修正するための知識集約的な実行プランを導出する。
論文 参考訳(メタデータ) (2023-10-06T01:40:09Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。