論文の概要: Spec-TOD: A Specialized Instruction-Tuned LLM Framework for Efficient Task-Oriented Dialogue Systems
- arxiv url: http://arxiv.org/abs/2507.04841v1
- Date: Mon, 07 Jul 2025 10:03:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.370652
- Title: Spec-TOD: A Specialized Instruction-Tuned LLM Framework for Efficient Task-Oriented Dialogue Systems
- Title(参考訳): Spec-TOD:効率的なタスク指向対話システムのための命令調整型LLMフレームワーク
- Authors: Quang-Vinh Nguyen, Quang-Chieu Nguyen, Hoang Pham, Khac-Hoai Nam Bui,
- Abstract要約: Spec-TODは、限られたデータでエンドツーエンドのTODシステムをトレーニングするために設計された新しいフレームワークである。
広く使われているTODベンチマークであるMultiWOZデータセットの実験は、Spec-TODが競合する結果を得ることを示した。
- 参考スコア(独自算出の注目度): 3.8748565070264758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task-oriented dialogue (TOD) systems facilitate goal-driven interactions between users and machines. While recent advances in deep learning have improved the performance, TOD systems often struggle in low-resource scenarios with limited labeled data. To address this challenge, we propose Spec-TOD, a novel framework designed to train an end-to-end TOD system with limited data. Spec-TOD introduces two main innovations: (i) a novel specialized end-to-end TOD framework that incorporates explicit task instructions for instruction-tuned large language models (LLMs), and (ii) an efficient training strategy that leverages lightweight, specialized LLMs to achieve strong performance with minimal supervision. Experiments on the MultiWOZ dataset, a widely used TOD benchmark, demonstrate that Spec-TOD achieves competitive results while significantly reducing the need for labeled data. These findings highlight the potential of the proposed framework in advancing efficient and effective TOD systems in low-resource settings.
- Abstract(参考訳): タスク指向対話(TOD)システムは、ユーザとマシン間の目標駆動インタラクションを促進する。
近年のディープラーニングの進歩により性能が向上しているが、TODシステムはラベル付きデータに制限のある低リソースシナリオで苦労することが多い。
この課題に対処するために,限られたデータでエンドツーエンドのTODシステムをトレーニングするための新しいフレームワークであるSpec-TODを提案する。
Spec-TODの主なイノベーションは2つある。
(i)命令調整型大規模言語モデル(LLM)のための明示的なタスク命令を組み込んだ新しいエンドツーエンドTODフレームワーク
(II)軽量で専門的なLCMを活用して、最小限の監督力で高い性能を達成する効率的なトレーニング戦略。
広く使用されているTODベンチマークであるMultiWOZデータセットの実験は、Spec-TODが競合する結果を達成すると同時に、ラベル付きデータの必要性を大幅に低減することを示した。
これらの知見は,低リソース環境における効率的なTODシステムの実現に向けたフレームワークの可能性を明らかにするものである。
関連論文リスト
- A Comprehensive Review on Harnessing Large Language Models to Overcome Recommender System Challenges [5.436611859202691]
大規模言語モデル(LLM)は、レコメンデータシステムにおいて重要な課題に取り組むために利用することができる。
LLMはパーソナライズ、セマンティックアライメント、解釈可能性を高める。
LLMはゼロショットと少数ショットの推論を可能にし、コールドスタートとロングテールのシナリオでシステムが効果的に動作できるようにする。
論文 参考訳(メタデータ) (2025-07-17T06:03:57Z) - Training Zero-Shot Generalizable End-to-End Task-Oriented Dialog System Without Turn-level Dialog Annotations [2.757798192967912]
この作業はマルチタスク命令の微調整を用いて、より効率的でスケーラブルなタスク指向対話システムを構築する。
提案手法は,アノテートされたデータに基づいて訓練された最先端モデルと,市販のChatGPTモデルから10億のパラメータを比較検討する。
論文 参考訳(メタデータ) (2024-07-21T04:52:38Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - Synergizing In-context Learning with Hints for End-to-end Task-oriented Dialog Systems [25.14460456391397]
LLM(Large Language Model)ベースのTODシステムは、コンテキスト内例を通してタスクを学習する能力のため、限られたデータでも優れている。
低データ設定におけるアライメントを改善するために,タスク固有のヒントでLLMを相乗化するSyncTODを提案する。
ChatGPTでは、SyncTODは低データ設定でLLMベースのベースラインやSoTAモデルよりも優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-24T14:13:54Z) - On the Multi-turn Instruction Following for Conversational Web Agents [83.51251174629084]
本稿では,ユーザと環境の両方で複数回にまたがる高度なインタラクションを必要とする,対話型Webナビゲーションの新たなタスクを紹介する。
本稿では,メモリ利用と自己回帰技術を用いた自己反射型メモリ拡張計画(Self-MAP)を提案する。
論文 参考訳(メタデータ) (2024-02-23T02:18:12Z) - A Systematic Study of Performance Disparities in Multilingual
Task-Oriented Dialogue Systems [68.76102493999134]
マルチリンガルなタスク指向対話システム間に存在するタスクパフォーマンスの相違を,実証的に分析し,分析する。
我々は現在のToDシステムにおける適応と本質的バイアスの存在を証明した。
本稿では,新しい言語に対するToDデータ収集とシステム開発へのアプローチについて,実践的なヒントを提供する。
論文 参考訳(メタデータ) (2023-10-19T16:41:44Z) - InstructTODS: Large Language Models for End-to-End Task-Oriented
Dialogue Systems [60.53276524369498]
大規模言語モデル(LLM)は自然言語処理(NLP)における多様なタスクに使用されている。
InstructTODSは、ゼロショットのタスク指向対話システムのための新しいフレームワークである。
InstructTODSは、ユーザの意図を動的クエリにシームレスに翻訳するプロキシの信念状態を生成する。
論文 参考訳(メタデータ) (2023-10-13T06:36:26Z) - Enhancing Large Language Model Induced Task-Oriented Dialogue Systems
Through Look-Forward Motivated Goals [76.69419538047813]
ProToDアプローチは、将来の対話行動を予測し、ToDシステムを強化するためにゴール指向の報酬シグナルを組み込む。
本稿では,目標駆動型対話シミュレーションに基づくToDシステム評価手法を提案する。
また,MultiWoZ 2.1データセットを用いた実験により,データの10%しか利用せず,優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2023-09-16T10:56:00Z) - Task-Optimized Adapters for an End-to-End Task-Oriented Dialogue System [0.0]
本稿では,タスク毎に個別に学習し,事前学習したネットワークの固定層に少数のパラメータを追加するタスク・ド・アダプタを用いたエンドツーエンドTODシステムを提案する。
提案手法はモデルに依存しない手法であり,プロンプトを使わずに入力データのみをプロンプトチューニングする必要がない。
論文 参考訳(メタデータ) (2023-05-04T00:17:49Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。