論文の概要: Learning Automata-Based Task Knowledge Representation from Large-Scale
Generative Language Models
- arxiv url: http://arxiv.org/abs/2212.01944v1
- Date: Sun, 4 Dec 2022 22:34:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:01:42.020087
- Title: Learning Automata-Based Task Knowledge Representation from Large-Scale
Generative Language Models
- Title(参考訳): 大規模生成言語モデルを用いたオートマトンによるタスク知識表現の学習
- Authors: Yunhao Yang, Jean-Rapha\"el Gaglione, Ufuk Topcu
- Abstract要約: 大規模生成言語モデル(GLM)はタスクの知識を自動的に抽出するのに役立つが、テキスト出力はシーケンシャルな意思決定において直接利用できない。
本稿では,タスク目標の簡単な記述から有限状態オートマトン(FSA)で表されるハイレベルなタスク知識を得る,GLM2FSAという新しいアルゴリズムを提案する。
このアルゴリズムは、テキストとオートマトンに基づく表現のギャップを埋め、構築されたFSAを直接、シーケンシャルな意思決定に利用することができる。
- 参考スコア(独自算出の注目度): 25.752647944862183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automata-based representations play an important role in control and planning
in sequential decision-making, but obtaining high-level task knowledge for
building automata is often difficult. Although large-scale generative language
models (GLMs) can help automatically distill task knowledge, the textual
outputs from GLMs are not directly utilizable in sequential decision-making. We
resolve this problem by proposing a novel algorithm named GLM2FSA, which
obtains high-level task knowledge, represented in a finite state automaton
(FSA), from a given brief description of the task goal. GLM2FSA sends queries
to a GLM for task knowledge in textual form and then builds a FSA to represent
the textual knowledge. This algorithm fills the gap between text and
automata-based representations, and the constructed FSA can be directly
utilized in sequential decision-making. We provide examples to demonstrate how
GLM2FSA constructs FSAs to represent knowledge encoded in the texts generated
by the large-scale GLMs.
- Abstract(参考訳): オートマトンに基づく表現は、逐次的な意思決定における制御と計画において重要な役割を果たすが、オートマトンを構築するための高度なタスク知識を得ることは、しばしば困難である。
大規模生成言語モデル(GLM)はタスク知識を自動抽出するのに役立つが、GLMからのテキスト出力はシーケンシャルな意思決定では直接利用できない。
タスクゴールの簡単な記述から有限状態オートマトン(FSA)で表される高レベルなタスク知識を得るGLM2FSAという新しいアルゴリズムを提案することでこの問題を解決する。
GLM2FSAは、タスク知識をテキスト形式でGLMに送信し、テキスト知識を表現するためのFSAを構築する。
このアルゴリズムはテキストと自動表現のギャップを埋め、構築されたFSAはシーケンシャルな意思決定で直接利用できる。
GLM2FSAは、大規模なGLMによって生成されたテキストに符号化された知識を表現するために、FSAの構築方法を示す。
関連論文リスト
- RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - The Task-oriented Queries Benchmark (ToQB) [0.0]
タスク指向クエリの標準ベンチマークはまだ利用できない。
NLP分野の既存のベンチマークは主にタスク指向の対話に焦点を当てている。
論文 参考訳(メタデータ) (2024-06-05T05:05:41Z) - Natural Language as Policies: Reasoning for Coordinate-Level Embodied Control with LLMs [7.746160514029531]
ロボットのタスク計画問題に対処するLLMによる実験結果を示す。
提案手法はタスクとシーンオブジェクトのテキスト記述を取得し,自然言語推論によるタスクプランニングを定式化する。
提案手法はマルチモーダル・プロンプト・シミュレーション・ベンチマークを用いて評価する。
論文 参考訳(メタデータ) (2024-03-20T17:58:12Z) - TaskBench: Benchmarking Large Language Models for Task Automation [82.2932794189585]
タスク自動化における大規模言語モデル(LLM)の機能を評価するためのフレームワークであるTaskBenchを紹介する。
具体的には、タスクの分解、ツールの選択、パラメータ予測を評価する。
提案手法は, 自動構築と厳密な人的検証を組み合わせることで, 人的評価との整合性を確保する。
論文 参考訳(メタデータ) (2023-11-30T18:02:44Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Automaton-Guided Curriculum Generation for Reinforcement Learning Agents [14.20447398253189]
Automaton-Guided Curriculum Learning (AGCL) は、DAG(Directed Acyclic Graphs)の形式で、対象タスクのためのカリキュラムを自動生成する新しい方法である。
AGCL は決定論的有限オートマトン (DFA) の形式で仕様を符号化し、DFA とオブジェクト指向 MDP 表現を使ってカリキュラムを DAG として生成する。
グリッドワールドと物理に基づくシミュレーションロボティクス領域の実験では、AGCLが生み出すカリキュラムが時間と閾値のパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2023-04-11T15:14:31Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z) - AutoPrompt: Eliciting Knowledge from Language Models with Automatically
Generated Prompts [46.03503882865222]
AutoPromptは、勾配誘導検索に基づいて、さまざまなタスクセットのプロンプトを作成する自動メソッドである。
マスク付き言語モデル(MLM)は,感情分析や自然言語推論を,追加パラメータや微調整を伴わずに行う能力を持つことを示す。
論文 参考訳(メタデータ) (2020-10-29T22:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。