論文の概要: Few-Shot Query Intent Detection via Relation-Aware Prompt Learning
- arxiv url: http://arxiv.org/abs/2509.05635v1
- Date: Sat, 06 Sep 2025 07:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.623286
- Title: Few-Shot Query Intent Detection via Relation-Aware Prompt Learning
- Title(参考訳): リレーショナル・アウェア・プロンプト・ラーニングによるFew-Shot Query Intent Detection
- Authors: Liang Zhang, Yuan Li, Shijie Zhang, Zheng Zhang, Xitong Li,
- Abstract要約: モデル事前学習のためのテキストと関係構造情報を統合した新しいフレームワークを提案する。
このフレームワークを基盤として,クエリ適応型アテンションネットワーク(QueryAdapt)を提案する。
- 参考スコア(独自算出の注目度): 14.048513219736543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intent detection is a crucial component of modern conversational systems, since accurately identifying user intent at the beginning of a conversation is essential for generating effective responses. Recent efforts have focused on studying this problem under a challenging few-shot scenario. These approaches primarily leverage large-scale unlabeled dialogue text corpora to pretrain language models through various pretext tasks, followed by fine-tuning for intent detection with very limited annotations. Despite the improvements achieved, existing methods have predominantly focused on textual data, neglecting to effectively capture the crucial structural information inherent in conversational systems, such as the query-query relation and query-answer relation. To address this gap, we propose SAID, a novel framework that integrates both textual and relational structure information in a unified manner for model pretraining for the first time. Building on this framework, we further propose a novel mechanism, the query-adaptive attention network (QueryAdapt), which operates at the relation token level by generating intent-specific relation tokens from well-learned query-query and query-answer relations explicitly, enabling more fine-grained knowledge transfer. Extensive experimental results on two real-world datasets demonstrate that SAID significantly outperforms state-of-the-art methods.
- Abstract(参考訳): 会話開始時のユーザの意図を正確に識別することは、効果的な応答を生成するのに不可欠である。
近年の取り組みは、挑戦的な数発のシナリオの下でこの問題を研究することに重点を置いている。
これらのアプローチは主に、大規模でラベルなしの対話テキストコーパスを利用して、様々なプレテキストタスクを通じて言語モデルを事前訓練し、その後、非常に限定的なアノテーションで意図の検出を微調整する。
得られた改善にもかかわらず、既存の手法は主にテキストデータに焦点を当てており、クエリ-クエリ関係やクエリ-問合せ関係など、会話システムに固有の重要な構造情報を効果的にキャプチャすることを無視している。
このギャップに対処するため,本研究では,テキストとリレーショナル構造情報を統一的に統合し,モデル事前学習を行う新しいフレームワークであるSAIDを提案する。
さらに,この枠組みに基づいてクエリ適応型アテンションネットワーク (QueryAdapt) を提案する。このネットワークは,クエリクエリとクエリ応答の関係を明確化し,よりきめ細かな知識伝達を可能にする。
2つの実世界のデータセットに対する大規模な実験結果から、SAIDは最先端の手法を大きく上回っていることが示された。
関連論文リスト
- The Devil is in the Spurious Correlations: Boosting Moment Retrieval with Dynamic Learning [49.40254251698784]
本稿では,モーメント検索のための動的学習手法を提案する。
まず、クエリーモーメントの動的コンテキストを構築するための新しいビデオ合成手法を提案する。
第2に、背景との過度な関連を緩和するために、テキストと力学の相互作用を組み込むことで、時間的に表現を強化する。
論文 参考訳(メタデータ) (2025-01-13T13:13:06Z) - Spatio-Temporal Context Prompting for Zero-Shot Action Detection [13.22912547389941]
本稿では,視覚言語モデルの豊富な知識を効果的に活用し,対人インタラクションを実現する手法を提案する。
同時に複数の人物による異なる行動を認識するという課題に対処するために,興味あるトークンスポッティング機構を設計する。
提案手法は,従来の手法に比べて優れた結果を得ることができ,さらにマルチアクションビデオに拡張することができる。
論文 参考訳(メタデータ) (2024-08-28T17:59:05Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - Retrieval-Free Knowledge-Grounded Dialogue Response Generation with
Adapters [52.725200145600624]
軽量アダプタで事前学習した言語モデルに事前知識を注入し、検索プロセスをバイパスする KnowExpert を提案する。
実験結果から,KnowExpertは検索ベースラインと相容れない性能を示した。
論文 参考訳(メタデータ) (2021-05-13T12:33:23Z) - Conversational Query Rewriting with Self-supervised Learning [36.392717968127016]
Conversational Query Rewriting (CQR) は、会話クエリを自己完結した発話に明示的に書き換えることによって、マルチターン対話を単一ターン問題に単純化することを目的としている。
既存のアプローチは、アノテートに労働集約的な大規模な教師付きトレーニングデータに依存している。
我々は,人間のアノテーションを必要としない自己教師付き学習により,大規模CQRデータセットを自動構築することを提案する。
論文 参考訳(メタデータ) (2021-02-09T08:57:53Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。