論文の概要: A Study on Training and Developing Large Language Models for Behavior
Tree Generation
- arxiv url: http://arxiv.org/abs/2401.08089v1
- Date: Tue, 16 Jan 2024 03:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:15:01.375896
- Title: A Study on Training and Developing Large Language Models for Behavior
Tree Generation
- Title(参考訳): 行動木生成のための大規模言語モデルの訓練と開発に関する研究
- Authors: Fu Li, Xueying Wang, Bin Li, Yunlong Wu, Yanzhen Wang and Xiaodong Yi
- Abstract要約: 本稿では,大規模言語モデル(LLM)の適用可能性について,革新的な考察を行う。
本論文の中核となる貢献は,LLMに基づくBT生成フレームワークの設計である。
生成したBTの有効性と実行性を確保するため,データ検証の重要性を強調した。
- 参考スコア(独自算出の注目度): 22.632022793663516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents an innovative exploration of the application potential of
large language models (LLM) in addressing the challenging task of automatically
generating behavior trees (BTs) for complex tasks. The conventional manual BT
generation method is inefficient and heavily reliant on domain expertise. On
the other hand, existing automatic BT generation technologies encounter
bottlenecks related to task complexity, model adaptability, and reliability. In
order to overcome these challenges, we propose a novel methodology that
leverages the robust representation and reasoning abilities of LLMs. The core
contribution of this paper lies in the design of a BT generation framework
based on LLM, which encompasses the entire process, from data synthesis and
model training to application developing and data verification. Synthetic data
is introduced to train the BT generation model (BTGen model), enhancing its
understanding and adaptability to various complex tasks, thereby significantly
improving its overall performance. In order to ensure the effectiveness and
executability of the generated BTs, we emphasize the importance of data
verification and introduce a multilevel verification strategy. Additionally, we
explore a range of agent design and development schemes with LLM as the central
element. We hope that the work in this paper may provide a reference for the
researchers who are interested in BT generation based on LLMs.
- Abstract(参考訳): 本稿では,複雑なタスクに対する動作木(bts)の自動生成という課題を解決するため,大規模言語モデル(llm)の応用可能性の革新的探究を行う。
従来の手動BT生成法は非効率であり、ドメインの専門知識に大きく依存している。
一方、既存の自動bt生成技術は、タスクの複雑さ、モデル適応性、信頼性に関するボトルネックに遭遇する。
これらの課題を克服するために,LLMの頑健な表現と推論能力を活用する新しい方法論を提案する。
本論文の中心的な貢献は,データ合成やモデルトレーニングからアプリケーション開発やデータ検証に至るまで,プロセス全体を包含するllmに基づくbt生成フレームワークの設計にある。
BT生成モデルを訓練するために合成データを導入し、その理解と様々な複雑なタスクへの適応性を高め、全体的な性能を大幅に向上させる。
生成したBTの有効性と実行性を確保するため,データ検証の重要性を強調し,マルチレベル検証戦略を導入する。
さらに, LLMを中心要素とするエージェント設計・開発手法についても検討する。
本論文は, LLM に基づくBT 生成に関心のある研究者への参考として, 本研究の成果を期待する。
関連論文リスト
- Deploying Large Language Models With Retrieval Augmented Generation [0.21485350418225244]
Retrieval Augmented Generationは、大規模言語モデルのトレーニングセット外のデータソースからの知識を統合するための重要なアプローチとして登場した。
本稿では,LLMとRAGを統合して情報検索を行うパイロットプロジェクトの開発とフィールドテストから得られた知見について述べる。
論文 参考訳(メタデータ) (2024-11-07T22:11:51Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - Towards Next-Generation Urban Decision Support Systems through AI-Powered Construction of Scientific Ontology using Large Language Models -- A Case in Optimizing Intermodal Freight Transportation [1.6230958216521798]
本研究では,事前学習された大規模言語モデル(LLM)を活用する可能性について検討する。
推論コアとしてChatGPT APIを採用することで、自然言語処理、メソノロジーベースのプロンプトチューニング、トランスフォーマーを含む統合ワークフローを概説する。
我々の方法論の成果は、広く採用されているオントロジー言語(OWL、RDF、SPARQLなど)の知識グラフである。
論文 参考訳(メタデータ) (2024-05-29T16:40:31Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Solution-oriented Agent-based Models Generation with Verifier-assisted
Iterative In-context Learning [10.67134969207797]
エージェントベースのモデル(ABM)は、仮説的な解決策やポリシーの提案と検証に不可欠なパラダイムである。
大きな言語モデル(LLM)は、ドメイン間の知識とプログラミング能力をカプセル化することで、このプロセスの難しさを軽減できる可能性がある。
SAGEは、ターゲット問題に対する自動モデリングおよびソリューション生成のために設計された、汎用的なソリューション指向のABM生成フレームワークである。
論文 参考訳(メタデータ) (2024-02-04T07:59:06Z) - A Study on the Implementation of Generative AI Services Using an
Enterprise Data-Based LLM Application Architecture [0.0]
本研究では,Large Language Models (LLM) アプリケーションアーキテクチャを用いて生成AIサービスを実装する手法を提案する。
この研究は、不十分なデータの問題を軽減するための戦略を練り上げ、カスタマイズされたソリューションを提供している。
この研究の重要な貢献は、検索型拡張世代(RAG)モデルの開発である。
論文 参考訳(メタデータ) (2023-09-03T07:03:17Z) - Controlling the Latent Space of GANs through Reinforcement Learning: A
Case Study on Task-based Image-to-Image Translation [5.881800919492065]
GAN(Generative Adversarial Networks)は、トレーニングデータセットに基づいたリアルなアウトプットを生成する、恐ろしいAIツールとして登場した。
我々は、強化学習(RL)エージェントと潜時空間GAN(l-GAN)を統合することでこの問題に対処する新しい手法を提案する。
我々は,l-GANの潜伏空間をナビゲートする習熟度を確保するために,厳密に設計された報酬ポリシーを備えたアクタ批判的RLエージェントを開発した。
論文 参考訳(メタデータ) (2023-07-26T06:34:24Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。