論文の概要: An approach for systematic decomposition of complex llm tasks
- arxiv url: http://arxiv.org/abs/2510.07772v1
- Date: Thu, 09 Oct 2025 04:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.862066
- Title: An approach for systematic decomposition of complex llm tasks
- Title(参考訳): 複雑なllmタスクの体系的分解へのアプローチ
- Authors: Tianle Zhou, Jiakai Xu, Guanhong Liu, Jiaxiang Liu, Haonan Wang, Eugene Wu,
- Abstract要約: 大きな言語モデル(LLM)は、既存の分解手法がエージェントや手動分解に依存しているため、複雑なタスクに対する信頼性の問題に悩まされる。
この研究は、制約問題としてタスクをモデル化し、分解を導くための形式的な複雑さ対策を活用する、新しい体系的な分解フレームワークを導入している。
- 参考スコア(独自算出の注目度): 23.781993440791926
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) suffer from reliability issues on complex tasks, as existing decomposition methods are heuristic and rely on agent or manual decomposition. This work introduces a novel, systematic decomposition framework that we call Analysis of CONstraint-Induced Complexity (ACONIC), which models the task as a constraint problem and leveraging formal complexity measures to guide decomposition. On combinatorial (SATBench) and LLM database querying tasks (Spider), we find that by decomposing the tasks following the measure of complexity, agent can perform considerably better (10-40 percentage point).
- Abstract(参考訳): 大きな言語モデル(LLM)は、既存の分解手法がヒューリスティックであり、エージェントや手動の分解に依存しているため、複雑なタスクの信頼性の問題に悩まされる。
本稿では,制約付き複雑度解析(Aconstraint-induced Complexity, ACONIC)と呼ばれる,制約問題としてタスクをモデル化し,分解を導くための形式的複雑性対策を活用する,新しい,体系的な分解フレームワークを紹介する。
組合せ (SATBench) と LLM データベースクエリタスク (Spider) について,複雑性の尺度に従ってタスクを分解することにより,エージェントの性能が大幅に向上する(10~40ポイント)。
関連論文リスト
- Fast-Slow-Thinking: Complex Task Solving with Large Language Models [49.98959729052245]
本稿では,FST(Fast-Slow-Thinking')と呼ばれるタスク分解手法を提案する。
FTでは、LLMは元のタスクの制約を取り除くよう促されるため、汎用的で簡潔なタスクに単純化される。
STでは、FTで取り除かれた制約をリコールするため、LLMはFTで生成された回答を改善し、元のタスクの要求を満たす。
論文 参考訳(メタデータ) (2025-04-11T16:57:36Z) - Compositional Hardness of Code in Large Language Models -- A Probabilistic Perspective [6.911107705494142]
大規模言語モデル(LLM)における一般的なプラクティスは、モデルのコンテキストウィンドウ内のタスク全体に対するソリューションをサンプリングすることである。
これまでの研究では、モデルのコンテキスト内でのサブタスク分解がそのようなタスクの解決に有用であることが示されている。
論文 参考訳(メタデータ) (2024-09-26T16:34:35Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - Learning Complex Teamwork Tasks Using a Given Sub-task Decomposition [11.998708550268978]
本稿では,タスクをよりシンプルなマルチエージェントサブタスクに分解する手法を提案する。
各サブタスクでは、チーム全体のサブセットが、サブタスク固有のポリシを取得するようにトレーニングされる。
サブチームはマージされ、ターゲットタスクに転送される。そこでは、そのポリシーは、より複雑なターゲットタスクを解決するために、まとめて微調整される。
論文 参考訳(メタデータ) (2023-02-09T21:24:56Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。