論文の概要: Text Revision by On-the-Fly Representation Optimization
- arxiv url: http://arxiv.org/abs/2204.07359v1
- Date: Fri, 15 Apr 2022 07:38:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 21:22:22.900770
- Title: Text Revision by On-the-Fly Representation Optimization
- Title(参考訳): オンザフライ表現最適化によるテキスト修正
- Authors: Jingjing Li, Zichao Li, Tao Ge, Irwin King, Michael R. Lyu
- Abstract要約: 現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
- 参考スコア(独自算出の注目度): 76.11035270753757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text revision refers to a family of natural language generation tasks, where
the source and target sequences share moderate resemblance in surface form but
differentiate in attributes, such as text formality and simplicity. Current
state-of-the-art methods formulate these tasks as sequence-to-sequence learning
problems, which rely on large-scale parallel training corpus. In this paper, we
present an iterative in-place editing approach for text revision, which
requires no parallel data. In this approach, we simply fine-tune a pre-trained
Transformer with masked language modeling and attribute classification. During
inference, the editing at each iteration is realized by two-step span
replacement. At the first step, the distributed representation of the text
optimizes on the fly towards an attribute function. At the second step, a text
span is masked and another new one is proposed conditioned on the optimized
representation. The empirical experiments on two typical and important text
revision tasks, text formalization and text simplification, show the
effectiveness of our approach. It achieves competitive and even better
performance than state-of-the-art supervised methods on text simplification,
and gains better performance than strong unsupervised methods on text
formalization \footnote{Code and model are available at
\url{https://github.com/jingjingli01/OREO}}.
- Abstract(参考訳): テキストリビジョン(英: text revision)とは、テキストの形式や単純さなどの属性を区別しながら、ソースとターゲットシーケンスが、表面形式において適度な類似性を共有する自然言語生成タスクのファミリーを指す。
現在の最先端手法は、大規模並列トレーニングコーパスに依存するシーケンスからシーケンスへの学習問題としてこれらのタスクを定式化している。
本稿では,並列データを必要としないテキスト修正のための反復的インプレース編集手法を提案する。
提案手法では,マスク付き言語モデルと属性分類を備えた事前学習型トランスフォーマーを単純に微調整する。
推論中、各イテレーションでの編集は2段階スパン置換によって実現される。
最初のステップでは、テキストの分散表現が属性関数に向かってオンザフライで最適化される。
2番目のステップでは、テキストスパンをマスクし、最適化された表現に別のテキストスパンを条件付けする。
2つの典型的かつ重要なテキスト修正タスク、テキストの形式化とテキストの単純化に関する実証実験は、我々のアプローチの有効性を示している。
テキストの簡略化に関する最先端の教師付きメソッドよりも競争力があり、テキストの形式化に関する強力な教師なしメソッドよりも優れたパフォーマンスを実現している。
関連論文リスト
- Contextualized Diffusion Models for Text-Guided Image and Video Generation [67.69171154637172]
条件拡散モデルは高忠実度テキスト誘導視覚生成および編集において優れた性能を示した。
本研究では,テキスト条件と視覚的サンプル間の相互作用とアライメントを包含するクロスモーダルコンテキストを組み込むことにより,コンテキスト拡散モデル(ContextDiff)を提案する。
理論的導出を伴うDDPMとDDIMの両方にモデルを一般化し、テキスト・ツー・イメージ生成とテキスト・ツー・ビデオ編集という2つの課題を伴う評価において、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T15:01:16Z) - Prefix-Tuning Based Unsupervised Text Style Transfer [29.86587278794342]
教師なしテキストスタイル転送は、その内容を保持しながら入力文のスタイルを変更することができる生成モデルを訓練することを目的としている。
本稿では,事前学習された強力な大規模言語モデルを用いて,教師なしテキストスタイル転送のためのプレフィックス・チューニング方式を提案する。
論文 参考訳(メタデータ) (2023-10-23T06:13:08Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Learning from Bootstrapping and Stepwise Reinforcement Reward: A
Semi-Supervised Framework for Text Style Transfer [30.622772801446132]
テキストスタイル転送のための半教師付きフレームワークを提案する。
まず、擬似並列ペアを自動構築し、教師付きで学習プロセスをブートストラップする。
そして、モデルは強化報酬を通じてラベルなしのデータから学習する。
論文 参考訳(メタデータ) (2022-05-19T05:18:06Z) - ABCNet v2: Adaptive Bezier-Curve Network for Real-time End-to-end Text
Spotting [108.93803186429017]
エンドツーエンドのテキストスポッティングは、統一されたフレームワークで検出と認識を統合することを目指している。
本稿では、Adaptive Bezier Curve Network v2 (ABCNet v2) を提示することで、エンドツーエンドテキストスポッティングに取り組む。
1) 任意の形状のテキストをパラメータ化されたベジアー曲線で適応的に適合させ, セグメンテーション法と比較すると, 構造的な出力だけでなく, 制御可能な表現も提供できる。
様々なバイリンガル(英語と中国語)ベンチマークデータセットで実施された総合的な実験は、ABCNet v2が現状を達成することを実証している。
論文 参考訳(メタデータ) (2021-05-08T07:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。