論文の概要: CESAR: Automatic Induction of Compositional Instructions for Multi-turn
Dialogs
- arxiv url: http://arxiv.org/abs/2311.17376v1
- Date: Wed, 29 Nov 2023 06:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 22:29:14.462418
- Title: CESAR: Automatic Induction of Compositional Instructions for Multi-turn
Dialogs
- Title(参考訳): CESAR:マルチターンダイアログのための合成指示の自動誘導
- Authors: Taha Aksu, Devamanyu Hazarika, Shikib Mehri, Seokhwan Kim, Dilek
Hakkani-T\"ur, Yang Liu, Mahdi Namazifar
- Abstract要約: 本稿では,多数のダイアログタスクを同じ形式で統一する新しいフレームワークであるCESARを提案する。
命令ベースのダイアログタスクのベンチマークであるInstructDialにCESARを適用する。
- 参考スコア(独自算出の注目度): 27.092581945832713
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instruction-based multitasking has played a critical role in the success of
large language models (LLMs) in multi-turn dialog applications. While publicly
available LLMs have shown promising performance, when exposed to complex
instructions with multiple constraints, they lag against state-of-the-art
models like ChatGPT. In this work, we hypothesize that the availability of
large-scale complex demonstrations is crucial in bridging this gap. Focusing on
dialog applications, we propose a novel framework, CESAR, that unifies a large
number of dialog tasks in the same format and allows programmatic induction of
complex instructions without any manual effort.
We apply CESAR on InstructDial, a benchmark for instruction-based dialog
tasks. We further enhance InstructDial with new datasets and tasks and utilize
CESAR to induce complex tasks with compositional instructions. This results in
a new benchmark called InstructDial++, which includes 63 datasets with 86 basic
tasks and 68 composite tasks. Through rigorous experiments, we demonstrate the
scalability of CESAR in providing rich instructions. Models trained on
InstructDial++ can follow compositional prompts, such as prompts that ask for
multiple stylistic constraints.
- Abstract(参考訳): インストラクションベースのマルチタスクは,マルチターンダイアログアプリケーションにおいて,大規模言語モデル(LLM)の成功に重要な役割を果たしている。
公開されているLLMは有望なパフォーマンスを示しているが、複数の制約のある複雑な命令に晒されると、ChatGPTのような最先端モデルに遅れる。
本研究では,このギャップを埋める上で,大規模な複雑な実演が可能であることが重要であると仮定する。
ダイアログアプリケーションに着目して,多数のダイアログタスクを同じ形式で統一し,手作業なしで複雑な命令をプログラム的に誘導する,新しいフレームワークであるCESARを提案する。
命令ベースのダイアログタスクのベンチマークであるInstructDialにCESARを適用する。
我々はさらに,新しいデータセットとタスクによるインストラクションを強化し,cesarを用いて合成命令による複雑なタスクを誘導する。
このベンチマークには、86の基本的なタスクと68の複合タスクを備えた63のデータセットが含まれている。
厳密な実験を通じて、豊富な指示を提供するCESARのスケーラビリティを実証する。
InstructDial++でトレーニングされたモデルは、複数のスタイル制約を求めるプロンプトなど、コンポジションプロンプトに従うことができる。
関連論文リスト
- HELPER-X: A Unified Instructable Embodied Agent to Tackle Four Interactive Vision-Language Domains with Memory-Augmented Language Models [13.963676467274109]
我々は、より広い例とプロンプトでメモリを拡張することで、HELPERの機能を拡張する。
この単純なHELPERの共有メモリへの拡張により、エージェントは対話、自然言語の命令、アクティブな質問、一般的な部屋の再編成から計画を実行するドメイン間で作業することができる。
本稿では,AChRED,TAA,DialFRED,Tidy Taskの4種類の対話型視覚言語エンボディエージェントについて評価を行った。
論文 参考訳(メタデータ) (2024-04-29T19:12:42Z) - Inductive-Deductive Strategy Reuse for Multi-Turn Instructional Dialogues [15.959842501166511]
本稿では,ユーザシミュレータが多様かつ詳細な命令を提示するのを支援するために,複雑なルールを明示的に捉えることを提案する。
実験結果から,本手法は多種多様かつ詳細な命令を生成可能であることが示された。
論文 参考訳(メタデータ) (2024-04-17T06:26:32Z) - Context-dependent Instruction Tuning for Dialogue Response Generation [61.21790201307179]
最近の言語モデルは、微調整中にタスク入力に命令を組み込むことで、自然言語計算タスクにおいて顕著なパフォーマンスを実現している。
マルチターン対話のためのコンテキストベース命令微調整フレームワークを提案する。
評価中、モデルは以前の文脈に基づいて指示を生成し、応答を自己導出する。
論文 参考訳(メタデータ) (2023-11-13T01:25:30Z) - Ada-Instruct: Adapting Instruction Generators for Complex Reasoning [14.456571495691561]
微調整により開発した適応型命令生成器であるAda-Instructを紹介する。
Ada-Instructの有効性をさまざまなアプリケーションで実証的に検証した。
論文 参考訳(メタデータ) (2023-10-06T13:28:04Z) - Self-Explanation Prompting Improves Dialogue Understanding in Large
Language Models [52.24756457516834]
大規模言語モデル(LLM)の理解能力を高めるための新たな「自己説明(Self-Explanation)」を提案する。
このタスクに依存しないアプローチでは、タスク実行前の各対話発話を分析し、様々な対話中心のタスクのパフォーマンスを向上させる必要がある。
6つのベンチマークデータセットによる実験結果から,本手法は他のゼロショットプロンプトよりも一貫して優れており,数ショットプロンプトの有効性を超えていることが明らかとなった。
論文 参考訳(メタデータ) (2023-09-22T15:41:34Z) - Dynamic-SUPERB: Towards A Dynamic, Collaborative, and Comprehensive Instruction-Tuning Benchmark for Speech [107.81472531864195]
テキスト言語モデルは、よく整形された命令が与えられたときに、目に見えないタスクに一般化する際、顕著なゼロショット能力を示している。
ゼロショット方式で複数のタスクを実行するための命令チューニングを活用できるユニバーサル音声モデルを構築するためのベンチマークであるDynamic-SUPERBを提案する。
論文 参考訳(メタデータ) (2023-09-18T06:43:30Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - Improving Zero and Few-shot Generalization in Dialogue through
Instruction Tuning [27.92734269206744]
InstructDialは対話のための命令チューニングフレームワークである。
48の多様な対話タスクからなるリポジトリからなり、59のオープンな対話データセットから作成されるテキストとテキストの統一フォーマットである。
分析の結果,InstructDialは未知のデータセットや対話評価や意図検出などのタスクに対して良好なゼロショット性能を実現し,数ショット設定でさらに優れたパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2022-05-25T11:37:06Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。