論文の概要: Incomplete Utterance Rewriting as Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2009.13166v1
- Date: Mon, 28 Sep 2020 09:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:56:02.831233
- Title: Incomplete Utterance Rewriting as Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションとしての不完全発話書き換え
- Authors: Qian Liu, Bei Chen, Jian-Guang Lou, Bin Zhou, Dongmei Zhang
- Abstract要約: 本稿では, セマンティックセグメンテーションタスクとして定式化する, 斬新で広範囲なアプローチを提案する。
スクラッチから生成する代わりに、このような定式化は編集操作を導入し、単語レベルの編集行列の予測として問題を形作る。
私たちのアプローチは、推論における標準的なアプローチの4倍高速です。
- 参考スコア(独自算出の注目度): 57.13577518412252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years the task of incomplete utterance rewriting has raised a large
attention. Previous works usually shape it as a machine translation task and
employ sequence to sequence based architecture with copy mechanism. In this
paper, we present a novel and extensive approach, which formulates it as a
semantic segmentation task. Instead of generating from scratch, such a
formulation introduces edit operations and shapes the problem as prediction of
a word-level edit matrix. Benefiting from being able to capture both local and
global information, our approach achieves state-of-the-art performance on
several public datasets. Furthermore, our approach is four times faster than
the standard approach in inference.
- Abstract(参考訳): 近年,不完全発話書き換えの課題が注目されている。
それまでの作業は通常、それを機械翻訳タスクとして形作り、コピー機構を備えたシーケンスベースのアーキテクチャを採用する。
本稿では,意味的セグメンテーションタスクとして定式化した,新規かつ広範囲なアプローチを提案する。
スクラッチから生成する代わりに、このような定式化は編集操作を導入し、単語レベルの編集行列の予測として問題を形作る。
ローカルな情報とグローバルな情報の両方をキャプチャできることから、我々のアプローチは、いくつかの公開データセット上で最先端のパフォーマンスを達成する。
さらに、私たちのアプローチは推論における標準的なアプローチの4倍高速です。
関連論文リスト
- Compositional Generalization for Data-to-Text Generation [86.79706513098104]
本稿では,群に述語をクラスタ化することで構成一般化に対処する新しいモデルを提案する。
本モデルでは,1つの述語を1度に1つのクラスタに依存して文単位でテキストを生成する。
すべての評価指標でT5ベースラインをはるかに上回る。
論文 参考訳(メタデータ) (2023-12-05T13:23:15Z) - Document-Level Abstractive Summarization [0.0]
非常に長いテキストの自動要約を改善するために,トランスフォーマー技術がいかに効果的かを検討する。
より小さなチャンクを処理して文書全体の要約を生成するコストを削減できる新しい検索強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T14:39:09Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z) - Transformer-Based Approach for Joint Handwriting and Named Entity
Recognition in Historical documents [1.7491858164568674]
本研究は,手書き文書における名前付きエンティティ認識にトランスフォーマネットワークを採用した最初のアプローチを示す。
我々は,Esposalles データベースを用いた ICDAR 2017 Information extract コンペティションにおいて,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-08T09:26:21Z) - Towards the Unseen: Iterative Text Recognition by Distilling from Errors [41.43280922432707]
先行芸術は、ほとんど目に見えない(または稀に見られる)キャラクターのシーケンスを認識することに苦慮している。
我々はこの「目に見えない」問題に対処するための新しい枠組みを提唱した。
私たちの成功の鍵は、ユニークなクロスモーダル変分オートエンコーダです。
論文 参考訳(メタデータ) (2021-07-26T10:06:42Z) - Topical Change Detection in Documents via Embeddings of Long Sequences [4.13878392637062]
テキストセグメンテーションのタスクを独立した教師付き予測タスクとして定式化する。
類似セクションの段落を微調整することで、学習した特徴がトピック情報をエンコードすることを示すことができます。
文レベルで操作する従来のアプローチとは異なり、我々は常により広いコンテキストを使用します。
論文 参考訳(メタデータ) (2020-12-07T12:09:37Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。