論文の概要: Planner-Reasoner Inside a Multi-task Reasoning Agent
- arxiv url: http://arxiv.org/abs/2202.00531v1
- Date: Tue, 1 Feb 2022 16:22:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-02 15:25:20.009266
- Title: Planner-Reasoner Inside a Multi-task Reasoning Agent
- Title(参考訳): マルチタスク推論エージェント内のプランナー・リゾナ
- Authors: Daoming Lyu, Bo Liu, and Jianshu Chen
- Abstract要約: エージェントが(一階述語)論理推論によって複数のタスクを解くことができるマルチタスク推論(MTR)の問題を考察する。
MTR対応エージェントは、多様なタスクに取り組むために、大量の"スキル"をマスターする必要がある。
本稿では,最先端のMTR能力と高効率性を実現するPlanner-Reasonerフレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.60071551321834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of multi-task reasoning (MTR), where an agent can
solve multiple tasks via (first-order) logic reasoning. This capability is
essential for human-like intelligence due to its strong generalizability and
simplicity for handling multiple tasks. However, a major challenge in
developing effective MTR is the intrinsic conflict between reasoning capability
and efficiency. An MTR-capable agent must master a large set of "skills" to
tackle diverse tasks, but executing a particular task at the inference stage
requires only a small subset of immediately relevant skills. How can we
maintain broad reasoning capability and also efficient specific-task
performance? To address this problem, we propose a Planner-Reasoner framework
capable of state-of-the-art MTR capability and high efficiency. The Reasoner
models shareable (first-order) logic deduction rules, from which the Planner
selects a subset to compose into efficient reasoning paths. The entire model is
trained in an end-to-end manner using deep reinforcement learning, and
experimental studies over a variety of domains validate its effectiveness.
- Abstract(参考訳): エージェントが(一階述語)論理推論によって複数のタスクを解くことができるマルチタスク推論(MTR)の問題を考察する。
この能力は、強力な一般化性と複数のタスクを扱うための単純さのため、人間のような知性に欠かせない。
しかし、効果的なMTRを開発する上での大きな課題は、推論能力と効率の本質的な衝突である。
MTR対応エージェントは、多様なタスクに取り組むために大量の"スキル"をマスターする必要がありますが、推論段階で特定のタスクを実行するには、すぐに関連するスキルの小さなサブセットしか必要ありません。
広い推論能力と効率的な特定タスクのパフォーマンスを維持するにはどうすればいいのか?
この問題に対処するために,最先端のMTR能力と高効率を実現するPlanner-Reasonerフレームワークを提案する。
Reasonerモデルは共有可能な(一階の)論理推論ルールであり、Plannerはサブセットを選択して効率的な推論パスを構成する。
モデル全体は、深層強化学習を用いてエンドツーエンドで訓練され、様々な領域に関する実験的研究がその有効性を検証する。
関連論文リスト
- Guiding Multi-agent Multi-task Reinforcement Learning by a Hierarchical Framework with Logical Reward Shaping [16.5526277899717]
本研究の目的は,論理報酬形成を伴う多エージェント協調アルゴリズムを設計することである。
Minecraftのような環境下で様々な種類のタスクで実験が行われてきた。
論文 参考訳(メタデータ) (2024-11-02T09:03:23Z) - Task Selection and Assignment for Multi-modal Multi-task Dialogue Act
Classification with Non-stationary Multi-armed Bandits [11.682678945754837]
マルチタスク学習(MTL)は、関連する補助タスクと共同学習することで、一次タスクの性能を向上させることを目的としている。
これまでの研究では、このようなランダムなタスクの選択は役に立たない可能性があり、パフォーマンスに有害な可能性があることが示唆されている。
本稿では,非定常的マルチアームバンディットに基づくタスクの選択と割り当てを行う手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T14:51:51Z) - Identification of Negative Transfers in Multitask Learning Using
Surrogate Models [29.882265735630046]
マルチタスク学習は、複数の関連するソースタスクで強化することで、低リソースのターゲットタスクのトレーニングに広く使用されている。
マルチタスク学習における重要な問題は、ターゲットタスクに利益をもたらすソースタスクのサブセットを特定することである。
本稿では,サロゲートモデルを用いてこの問題に対処する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-03-25T23:16:11Z) - Active Prompting with Chain-of-Thought for Large Language Models [26.5029080638055]
本稿では,大規模言語モデルを異なるタスクに適応させる新しい手法であるActive-Promptを提案する。
不確実性に基づくアクティブラーニングの関連問題からアイデアを借用することにより、不確実性を特徴づける指標をいくつか導入する。
実験により,提案手法の優位性を実証し,8つの複雑な推論タスクの最先端化を図った。
論文 参考訳(メタデータ) (2023-02-23T18:58:59Z) - Task Aware Feature Extraction Framework for Sequential Dependence
Multi-Task Learning [1.0765359420035392]
我々は厳密な数学的観点から逐次依存型MLLを解析する。
逐次依存型MLLのためのタスク認識特徴抽出(TAFE)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-06T13:12:59Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Controllable Dynamic Multi-Task Architectures [92.74372912009127]
本稿では,そのアーキテクチャと重みを動的に調整し,所望のタスク選択とリソース制約に適合させる制御可能なマルチタスクネットワークを提案する。
本稿では,タスク親和性と分岐正規化損失を利用した2つのハイパーネットの非交互トレーニングを提案し,入力の嗜好を取り入れ,適応重み付き木構造モデルを予測する。
論文 参考訳(メタデータ) (2022-03-28T17:56:40Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Small Towers Make Big Differences [59.243296878666285]
マルチタスク学習は、複数の機械学習タスクを同時に解決することを目的としている。
マルチタスク学習問題に対する優れた解法は、Paretoの最適性に加えて一般化可能であるべきである。
本稿では,マルチタスクモデルのためのパラメータ下自己助詞の手法を提案し,両世界のベストを達成した。
論文 参考訳(メタデータ) (2020-08-13T10:45:31Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - Gradient Surgery for Multi-Task Learning [119.675492088251]
マルチタスク学習は、複数のタスク間で構造を共有するための有望なアプローチとして登場した。
マルチタスク学習がシングルタスク学習と比較して難しい理由は、完全には理解されていない。
本稿では,他の作業の勾配の正規平面上にタスクの勾配を投影する勾配手術の一形態を提案する。
論文 参考訳(メタデータ) (2020-01-19T06:33:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。