論文の概要: Stable Style Transformer: Delete and Generate Approach with
Encoder-Decoder for Text Style Transfer
- arxiv url: http://arxiv.org/abs/2005.12086v3
- Date: Thu, 26 Nov 2020 09:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:56:03.372052
- Title: Stable Style Transformer: Delete and Generate Approach with
Encoder-Decoder for Text Style Transfer
- Title(参考訳): stable style transformer: テキストスタイル転送のためのエンコーダデコーダによる削除と生成アプローチ
- Authors: Joosung Lee
- Abstract要約: 非並列データセットの2段階を追従する手法を提案する。
最初の段階は、分類器から直接文の属性マーカーを削除することである。
第2段階は、コンテンツトークンとターゲットスタイルを組み合わせることで、転送文を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text style transfer is the task that generates a sentence by preserving the
content of the input sentence and transferring the style. Most existing studies
are progressing on non-parallel datasets because parallel datasets are limited
and hard to construct. In this work, we introduce a method that follows two
stages in non-parallel datasets. The first stage is to delete attribute markers
of a sentence directly through a classifier. The second stage is to generate a
transferred sentence by combining the content tokens and the target style. We
experiment on two benchmark datasets and evaluate context, style, fluency, and
semantic. It is difficult to select the best system using only these automatic
metrics, but it is possible to select stable systems. We consider only robust
systems in all automatic evaluation metrics to be the minimum conditions that
can be used in real applications. Many previous systems are difficult to use in
certain situations because performance is significantly lower in several
evaluation metrics. However, our system is stable in all automatic evaluation
metrics and has results comparable to other models. Also, we compare the
performance results of our system and the unstable system through human
evaluation. Our code and data are available at the link
(https://github.com/rungjoo/Stable-Style-Transformer).
- Abstract(参考訳): テキストスタイル転送は、入力文の内容を保持し、スタイルを転送することで文を生成するタスクである。
並列データセットは限定的で構築が難しいため、既存の研究は非並列データセットで進められている。
本研究では,非並列データセットの2段階に従う手法を提案する。
最初の段階は、分類器から直接文の属性マーカーを削除することである。
第2段階は、コンテンツトークンとターゲットスタイルを組み合わせることで、転送文を生成することである。
ベンチマークデータセットを2つ実験し,コンテキスト,スタイル,フラレンシ,セマンティクスを評価した。
これらの自動メトリクスのみを用いて最適なシステムを選択することは難しいが、安定したシステムを選択することは可能である。
我々は,全ての自動評価指標におけるロバストシステムのみを,実アプリケーションで使用可能な最小条件とみなす。
いくつかの評価指標では性能が著しく低いため,従来のシステムでは使用が困難であった。
しかし,本システムは全ての自動評価指標で安定しており,他のモデルに匹敵する結果が得られる。
また,本システムと不安定なシステムの性能を人的評価によって比較した。
私たちのコードとデータはリンクで利用可能です(https://github.com/rungjoo/Stable-Style-Transformer)。
関連論文リスト
- Improving Text Embeddings with Large Language Models [59.930513259982725]
合成データと1k以下のトレーニングステップのみを用いて,高品質なテキスト埋め込みを実現するための,新しい簡易な手法を提案する。
我々は、93言語にまたがる数十万のテキスト埋め込みタスクのための多様な合成データを生成するために、プロプライエタリなLLMを活用している。
実験により,ラベル付きデータを使わずに,高度に競争力のあるテキスト埋め込みベンチマークにおいて高い性能が得られることが示された。
論文 参考訳(メタデータ) (2023-12-31T02:13:18Z) - Evaluating Factual Consistency of Texts with Semantic Role Labeling [3.1776833268555134]
本稿では,テキスト要約を念頭に設計した参照不要評価指標SRLScoreを紹介する。
最終事実度スコアは、調整可能なスコアリング機構により算出される。
英語の要約データセットにおける人間の判断との相関は、SRLScoreが最先端の手法と競合していることを示している。
論文 参考訳(メタデータ) (2023-05-22T17:59:42Z) - Extrinsic Evaluation of Machine Translation Metrics [78.75776477562087]
文レベルでの翻訳と翻訳の良さを区別する上で,自動尺度が信頼性が高いかどうかは不明である。
我々は,3つの下流言語タスクにおいて,最も広く使用されているMTメトリクス(chrF,COMET,BERTScoreなど)のセグメントレベル性能を評価する。
実験の結果,各指標は下流結果の外部評価と負の相関を示すことがわかった。
論文 参考訳(メタデータ) (2022-12-20T14:39:58Z) - T5Score: Discriminative Fine-tuning of Generative Evaluation Metrics [94.69907794006826]
我々は、現在利用可能なデータから、教師なし信号と教師なし信号の両方を用いて、両方の世界のベストを結合するフレームワークを提案する。
このアイデアを,mT5をバックボーンとするトレーニング信号を使用するメトリックであるT5Scoreをトレーニングすることで,運用する。
T5Scoreは、セグメントレベルの既存のトップスコアメトリクスに対して、すべてのデータセットで最高のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-12T06:29:04Z) - SMART: Sentences as Basic Units for Text Evaluation [48.5999587529085]
本稿では,このような制約を緩和するSMARTと呼ばれる新しい指標を提案する。
文をトークンの代わりにマッチングの基本単位として扱い,ソフトマッチ候補と参照文に文マッチング関数を用いる。
この結果から,提案手法とモデルベースマッチング関数とのシステムレベルの相関は,全ての競合する指標よりも優れていた。
論文 参考訳(メタデータ) (2022-08-01T17:58:05Z) - Systematic Investigation of Strategies Tailored for Low-Resource
Settings for Sanskrit Dependency Parsing [14.416855042499945]
Sanskrit Dependency Parsing (SDP) の既存の手法は、本質的にハイブリッドである。
純粋にデータ駆動アプローチは、ラベル付きデータ間隔によるハイブリッドアプローチのパフォーマンスにマッチしない。
我々は、データ強化、シーケンシャルトランスファーラーニング、クロスランガル/モノランガル事前学習、マルチタスク学習、自己学習の5つの戦略を実験した。
提案するアンサンブルシステムは, 純粋にデータ駆動状態よりも2.8/3.9ポイント(Unlabelled Attachment Score (UAS)/Labelled Attachment Score (LAS))の絶対ゲインに優れる。
論文 参考訳(メタデータ) (2022-01-27T08:24:53Z) - Benchmarking Multimodal AutoML for Tabular Data with Text Fields [83.43249184357053]
テキストフィールドを含む18個のマルチモーダルデータテーブルを組み立てる。
このベンチマークにより、研究者は、数値的、分類的、テキスト的特徴を用いて教師あり学習を行うための独自の方法を評価することができる。
論文 参考訳(メタデータ) (2021-11-04T09:29:16Z) - Transforming Multi-Conditioned Generation from Meaning Representation [0.0]
本研究では,発話の意味を表す様々な情報を生成条件として考慮し,言語生成に焦点をあてる。
MR(Meaning Representation)から直接発話を生成するためのシンプルなワンステージフレームワークを提案する。
我々のモデルはGPT2に基づいており、文の構造を決定する必要がないスロットと値対の平らな条件の発話を生成する。
論文 参考訳(メタデータ) (2021-01-12T01:45:06Z) - Conditioned Text Generation with Transfer for Closed-Domain Dialogue
Systems [65.48663492703557]
条件付き変分オートエンコーダを用いて,意図特化文の生成を最適に学習し,制御する方法を示す。
クエリ転送と呼ばれる新しいプロトコルを導入し、大規模で遅延のないデータセットを活用できるようにします。
論文 参考訳(メタデータ) (2020-11-03T14:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。