論文の概要: GOLF: Goal-Oriented Long-term liFe tasks supported by human-AI collaboration
- arxiv url: http://arxiv.org/abs/2403.17089v2
- Date: Wed, 17 Apr 2024 15:00:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 00:06:38.077056
- Title: GOLF: Goal-Oriented Long-term liFe tasks supported by human-AI collaboration
- Title(参考訳): GOLF:Goal-Oriented Long-term liFe tasks Support by Human-AI collaboration
- Authors: Ben Wang,
- Abstract要約: ChatGPTと類似の大規模言語モデル(LLM)は、人間とAIの相互作用と情報探索プロセスに革命をもたらした。
本研究は,LLM機能の範囲を日常的なタスク自動化を超えて拡張し,長期的,重要なライフタスクのユーザを支援する。
- 参考スコア(独自算出の注目度): 4.414024076524777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of ChatGPT and similar large language models (LLMs) has revolutionized the human-AI interaction and information-seeking process. Leveraging LLMs as an alternative to search engines, users can now access summarized information tailored to their queries, significantly reducing the cognitive load associated with navigating vast information resources. This shift underscores the potential of LLMs in redefining information access paradigms. Drawing on the foundation of task-focused information retrieval and LLMs' task planning ability, this research extends the scope of LLM capabilities beyond routine task automation to support users in navigating long-term and significant life tasks. It introduces the GOLF framework (Goal-Oriented Long-term liFe tasks), which focuses on enhancing LLMs' ability to assist in significant life decisions through goal orientation and long-term planning. The methodology encompasses a comprehensive simulation study to test the framework's efficacy, followed by model and human evaluations to develop a dataset benchmark for long-term life tasks, and experiments across different models and settings. By shifting the focus from short-term tasks to the broader spectrum of long-term life goals, this research underscores the transformative potential of LLMs in enhancing human decision-making processes and task management, marking a significant step forward in the evolution of human-AI collaboration.
- Abstract(参考訳): ChatGPTと類似の大規模言語モデル(LLM)の出現は、人間とAIの相互作用と情報検索プロセスに革命をもたらした。
LLMを検索エンジンの代替として活用することで、ユーザはクエリに合わせて要約された情報にアクセスでき、膨大な情報リソースをナビゲートする際の認知的負荷を大幅に削減できる。
このシフトは、情報アクセスパラダイムを再定義するLLMの可能性を浮き彫りにしている。
本研究は、タスク中心の情報検索とLCMのタスク計画能力の基盤を基礎として、日常的なタスク自動化を超えてLLM機能の範囲を広げ、長期的かつ重要なライフタスクのユーザを支援する。
GOLFフレームワーク(Goal-Oriented Long-term liFe task)を導入し、ゴール指向と長期計画を通じて重要な人生決定を支援するLLMの能力を向上することに焦点を当てた。
この手法は、フレームワークの有効性をテストするための総合的なシミュレーション研究を含み、続いてモデルと人間の評価を行い、長期のライフタスクのためのデータセットベンチマークを開発し、異なるモデルと設定をまたいだ実験を行う。
本研究は、短期的課題から長期的目標の範囲に焦点を移すことにより、人間の意思決定プロセスとタスクマネジメントの強化におけるLLMの変革的ポテンシャルを浮き彫りにして、人間とAIのコラボレーションの進化における大きな一歩を踏み出した。
関連論文リスト
- Sub-goal Distillation: A Method to Improve Small Language Agents [21.815417165548187]
大規模言語モデル(LLM)は対話型タスクにおけるエージェントとして大きな可能性を証明している。
数十億のパラメータを持つLLMの性能を、はるかに小さな言語モデルに転送する手法を提案する。
困難かつマルチタスクな対話型テキスト環境であるScienceWorldでは,基本動作のみに基づく標準的な模倣学習を16.7%超えている。
論文 参考訳(メタデータ) (2024-05-04T20:34:06Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - Large Language Models as Urban Residents: An LLM Agent Framework for
Personal Mobility Generation [20.66295977999949]
本稿では,Large Language Models (LLMs) をエージェントフレームワークに統合した,フレキシブルかつ効率的なパーソナルモビリティ生成手法を提案する。
LLMは、セマンティックデータを効率的に処理し、様々なタスクをモデリングする汎用性を提供することによって、以前のモデルの限界を克服する。
論文 参考訳(メタデータ) (2024-02-22T18:03:14Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - TaskBench: Benchmarking Large Language Models for Task Automation [85.3879908356586]
タスク自動化における大規模言語モデルの能力を評価するためにTaskBenchを導入します。
高品質な評価データセットを生成するために,ツールグラフの概念を導入する。
また,タスク分解,ツールの実行,パラメータ予測など,さまざまな側面からLCMの能力を評価するためのTaskEvalを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:02:44Z) - LALM: Long-Term Action Anticipation with Language Models [74.10147822693791]
言語モデル(LALM)を用いた長期的行動予測のための新しいアプローチを提案する。
本手法は,従来の行動系列を追跡する行動認識モデルと,関連する環境の詳細を記述するための視覚言語モデルを含む。
実験の結果、LALMは長期的な行動予測のタスクにおいて最先端の手法を超越していることが示された。
論文 参考訳(メタデータ) (2023-11-29T02:17:27Z) - LgTS: Dynamic Task Sampling using LLM-generated sub-goals for
Reinforcement Learning Agents [10.936460061405157]
LgTS (LLM-Guided Teacher-Student Learning) を提案する。
提案手法では,提案したサブゴールを達成するための事前訓練されたポリシーも必要としない。
論文 参考訳(メタデータ) (2023-10-14T00:07:03Z) - ISR-LLM: Iterative Self-Refined Large Language Model for Long-Horizon
Sequential Task Planning [7.701407633867452]
大規模言語モデル(LLM)は、タスクに依存しないプランナとして一般化性を高める可能性を提供する。
ISR-LLMは,反復的な自己複製プロセスを通じてLCMに基づく計画を改善する新しいフレームワークである。
ISR-LLM は現状の LLM ベースのプランナに比べてタスク達成率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-08-26T01:31:35Z) - Understanding the Capabilities of Large Language Models for Automated
Planning [24.37599752610625]
この研究は、複雑な計画問題の解決におけるLLMの能力に光を当てようとしている。
この文脈で LLM を使用するための最も効果的なアプローチに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-05-25T15:21:09Z) - Skill-based Meta-Reinforcement Learning [65.31995608339962]
本研究では,長期的スパース・リワードタスクにおけるメタラーニングを実現する手法を提案する。
私たちの中核となる考え方は、メタ学習中にオフラインデータセットから抽出された事前経験を活用することです。
論文 参考訳(メタデータ) (2022-04-25T17:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。