論文の概要: Incomplete Utterance Rewriting with Editing Operation Guidance and Utterance Augmentation
- arxiv url: http://arxiv.org/abs/2503.16043v1
- Date: Thu, 20 Mar 2025 11:26:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:51.248358
- Title: Incomplete Utterance Rewriting with Editing Operation Guidance and Utterance Augmentation
- Title(参考訳): 編集作業指導と発話増強による不完全発話書き直し
- Authors: Zhiyu Cao, Peifeng Li, Yaxin Fan, Qiaoming Zhu,
- Abstract要約: マルチタスク学習フレームワークEO-IUR (Editing Operation-guided Incomplete Utterance Rewriting) を提案し,コヒーレントな発話を生成する。
また,操作に基づく不完全発話の編集とLLMに基づく歴史的発話の編集という2次元的発話増強戦略を提案する。
3つのデータセットに対する実験結果から、我々のEO-IURは、オープンドメインとタスク指向の対話の両方において、従来の最先端(SOTA)ベースラインよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 13.845201572755983
- License:
- Abstract: Although existing fashionable generation methods on Incomplete Utterance Rewriting (IUR) can generate coherent utterances, they often result in the inclusion of irrelevant and redundant tokens in rewritten utterances due to their inability to focus on critical tokens in dialogue context. Furthermore, the limited size of the training datasets also contributes to the insufficient training of the IUR model. To address the first issue, we propose a multi-task learning framework EO-IUR (Editing Operation-guided Incomplete Utterance Rewriting) that introduces the editing operation labels generated by sequence labeling module to guide generation model to focus on critical tokens. Furthermore, we introduce a token-level heterogeneous graph to represent dialogues. To address the second issue, we propose a two-dimensional utterance augmentation strategy, namely editing operation-based incomplete utterance augmentation and LLM-based historical utterance augmentation. The experimental results on three datasets demonstrate that our EO-IUR outperforms previous state-of-the-art (SOTA) baselines in both open-domain and task-oriented dialogue. The code will be available at https://github.com/Dewset/EO-IUR.
- Abstract(参考訳): Incomplete Utterance Rewriting (IUR) の既存のファッショナブルな生成手法はコヒーレントな発話を生成することができるが、会話の文脈において重要なトークンにフォーカスできないために、リライトされた発話に無関係で冗長なトークンが組み込まれることがしばしばある。
さらに、トレーニングデータセットの限られたサイズは、IURモデルの不十分なトレーニングにも寄与する。
最初の課題に対処するため,複数タスク学習フレームワーク EO-IUR (Editing Operation-guided Incomplete Utterance Rewriting) を提案する。
さらに,対話を表現するためにトークンレベルの異種グラフを導入する。
第2の課題に対処するために,操作に基づく不完全発話増補とLLMに基づく歴史的発話増補を編集する2次元発話増補戦略を提案する。
3つのデータセットに対する実験結果から、我々のEO-IURは、オープンドメインとタスク指向の対話の両方において、従来の最先端(SOTA)ベースラインよりも優れていることが示された。
コードはhttps://github.com/Dewset/EO-IUR.comから入手できる。
関連論文リスト
- Bidirectional Trained Tree-Structured Decoder for Handwritten
Mathematical Expression Recognition [51.66383337087724]
Handwriting Mathematical Expression Recognition (HMER) タスクは、OCRの分野における重要な分岐である。
近年の研究では、双方向コンテキスト情報の導入により、HMERモデルの性能が大幅に向上することが示されている。
本稿では,MF-SLT と双方向非同期トレーニング (BAT) 構造を提案する。
論文 参考訳(メタデータ) (2023-12-31T09:24:21Z) - Multi-Granularity Information Interaction Framework for Incomplete
Utterance Rewriting [32.05944198256814]
Incomplete Utterance Rewriting (IUR)の最近のアプローチでは、重要な単語のソースをキャプチャできない。
本稿では,コンテキスト選択,編集行列の構成,関連性統合を含む,新しいマルチタスク情報インタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-19T08:43:02Z) - Successor Features for Efficient Multisubject Controlled Text Generation [48.37713738712319]
本稿では,後継機能 (SF) と言語モデル修正の2つの基本概念を基礎とするSF-GENを紹介する。
SF-GENはこの2つをシームレスに統合し、LCMのパラメータを変更することなくテキスト生成の動的ステアリングを可能にする。
我々の知る限り、本研究はテキスト生成における後継機能の最初の応用である。
論文 参考訳(メタデータ) (2023-11-03T00:17:08Z) - InstructERC: Reforming Emotion Recognition in Conversation with Multi-task Retrieval-Augmented Large Language Models [9.611864685207056]
本稿では,識別的枠組みから大規模言語モデル(LLM)に基づく生成的枠組みへ,感情認識タスクを再構築するための新しいアプローチであるインストラクタCを提案する。
InstructERCは、3つの重要な貢献をしている:(1)モデルがマルチグラニュラリティ対話監視情報を明示的に統合するのに役立つ単純で効果的なテンプレートモジュール、(2)話者識別と感情予測タスクという2つの追加の感情アライメントタスクを導入し、会話における対話の役割の関係と将来の感情傾向を暗黙的にモデル化する。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - Boosting Punctuation Restoration with Data Generation and Reinforcement
Learning [70.26450819702728]
触覚回復は自動音声認識(ASR)における重要な課題である
テキストの句読点とASRテキストとの相違は、ASRテキストの句読点復元システムのトレーニングにおいて、テキストのユーザビリティを制限している。
本稿では,このギャップを埋めるために,話題内テキストを活用した強化学習手法と大規模事前学習型生成言語モデルの最近の進歩を提案する。
論文 参考訳(メタデータ) (2023-07-24T17:22:04Z) - Controllable Data Augmentation for Few-Shot Text Mining with Chain-of-Thought Attribute Manipulation [35.33340453046864]
Chain-of-Thought Attribute Manipulation (CoTAM)は、既存の例から新しいデータを生成する新しいアプローチである。
我々は,(1)属性分解,(2)操作提案,(3)文の再構築という3つのステップで,テキストを直接編集するよう促すチェーン・オブ・シントを利用する。
論文 参考訳(メタデータ) (2023-07-14T00:10:03Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Self-Sufficient Framework for Continuous Sign Language Recognition [75.60327502570242]
この作業の目標は、継続的手話認識のための自己充足型のフレームワークを開発することです。
これには、理解のための手、顔、口などの複雑なマルチスケール機能、フレームレベルのアノテーションの欠如が含まれる。
ネットワークやアノテーションを必要とせずに手動と非手動の両方の機能を抽出するDivide and Focus Convolution (DFConv)を提案する。
DPLRは、基底真理グロスシーケンスラベルと予測シーケンスを組み合わせることにより、非スパイクフレームレベルの擬似ラベルを伝搬する。
論文 参考訳(メタデータ) (2023-03-21T11:42:57Z) - Utterance Rewriting with Contrastive Learning in Multi-turn Dialogue [22.103162555263143]
比較学習とマルチタスク学習を導入し、問題を共同でモデル化する。
提案手法は,複数の公開データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-22T10:13:27Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。