論文の概要: T-STAR: Truthful Style Transfer using AMR Graph as Intermediate
Representation
- arxiv url: http://arxiv.org/abs/2212.01667v1
- Date: Sat, 3 Dec 2022 18:38:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:29:46.280156
- Title: T-STAR: Truthful Style Transfer using AMR Graph as Intermediate
Representation
- Title(参考訳): t-star: amrグラフを中間表現とする真理的なスタイル転送
- Authors: Anubhav Jangra, Preksha Nema, Aravindan Raghuveer
- Abstract要約: 本稿では,抽象的意味表現(AMR)グラフの中間表現としての有用性について検討する。
本稿では,テキスト・トゥ・AMRエンコーダとAMR・トゥ・テキスト・デコーダの2つのコンポーネントからなるモデルT-STARを提案する。
我々は,T-STARが平均15.2%高いコンテンツ保存率(3%の精度)を達成し,その性能を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 11.50755368400144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unavailability of parallel corpora for training text style transfer (TST)
models is a very challenging yet common scenario. Also, TST models implicitly
need to preserve the content while transforming a source sentence into the
target style. To tackle these problems, an intermediate representation is often
constructed that is devoid of style while still preserving the meaning of the
source sentence. In this work, we study the usefulness of Abstract Meaning
Representation (AMR) graph as the intermediate style agnostic representation.
We posit that semantic notations like AMR are a natural choice for an
intermediate representation. Hence, we propose T-STAR: a model comprising of
two components, text-to-AMR encoder and a AMR-to-text decoder. We propose
several modeling improvements to enhance the style agnosticity of the generated
AMR. To the best of our knowledge, T-STAR is the first work that uses AMR as an
intermediate representation for TST. With thorough experimental evaluation we
show T-STAR significantly outperforms state of the art techniques by achieving
on an average 15.2% higher content preservation with negligible loss (3%
approx.) in style accuracy. Through detailed human evaluation with 90,000
ratings, we also show that T-STAR has up to 50% lesser hallucinations compared
to state of the art TST models.
- Abstract(参考訳): テキストスタイル転送(TST)モデルをトレーニングするための並列コーパスの有用性は、非常に難しいが一般的なシナリオである。
また、TSTモデルは、ソース文をターゲットスタイルに変換しながら、暗黙的にコンテンツを保存する必要がある。
これらの問題に対処するために、原文の意味を保ちながら、スタイルを欠いた中間表現が構築されることがしばしばある。
本研究では,抽象的意味表現(AMR)グラフを中間形式非依存表現としての有用性について検討する。
AMRのような意味的表記は、中間表現の自然な選択であると仮定する。
そこで本研究では,テキスト対amrエンコーダとamr対テキストデコーダという2つのコンポーネントからなるモデルであるt-starを提案する。
生成したAMRのスタイル非依存性を高めるために,いくつかのモデリング改善を提案する。
我々の知る限り、T-STARは、TSTの中間表現としてAMRを使用する最初の作品です。
徹底的な実験評価により,T-STARは平均15.2%高いコンテンツ保存率(3%の精度)を達成し,その性能を著しく向上させることを示した。
また,90,000点の詳細な評価により,T-STARはアートTSTモデルと比較して最大50%の幻覚率を示した。
関連論文リスト
- CATT: Character-based Arabic Tashkeel Transformer [0.0]
タシュケル(Tashkeel)は、アラビア語のテキストの理解を大幅に強化する。
本稿では,ATDモデルのトレーニングに新たなアプローチを提案する。
11の商用およびオープンソースモデルとともに、当社のモデルを評価します。
論文 参考訳(メタデータ) (2024-07-03T16:05:20Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Leveraging Denoised Abstract Meaning Representation for Grammatical
Error Correction [53.55440811942249]
文法的誤り訂正(英: Grammatical Error Correction, GEC)とは、誤りのある文を文法的に正しい、意味的に一貫性のある、一貫性のある文に修正する作業である。
本稿では,AMRを付加知識として組み込んだSeq-to-seqモデルであるAMR-GECを提案する。
論文 参考訳(メタデータ) (2023-07-05T09:06:56Z) - An AMR-based Link Prediction Approach for Document-level Event Argument
Extraction [51.77733454436013]
文書レベルのイベント調停抽出(文書レベルEAE)のための抽象的意味表現(AMR)を導入した最近の研究動向
本研究では,AEをAMRグラフ上のリンク予測問題として再検討する。
本稿では,より少ない情報量のサブグラフやエッジタイプを圧縮し,スパン情報を統合し,同じ文書内の事象をハイライトする新たなグラフ構造であるTalored AMR Graph(TAG)を提案する。
論文 参考訳(メタデータ) (2023-05-30T16:07:48Z) - TMR: Text-to-Motion Retrieval Using Contrastive 3D Human Motion
Synthesis [59.465092047829835]
我々は、テキストから3次元の人間の動きを抽出する簡単な方法であるTMRを提案する。
提案手法は,最先端のテキスト-モーション合成モデルTEMOSを拡張した。
運動生成損失の維持は、対照的な訓練とともに、優れた性能を得るためには不可欠であることを示す。
論文 参考訳(メタデータ) (2023-05-02T17:52:41Z) - StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale
Text-to-Image Synthesis [54.39789900854696]
StyleGAN-Tは大規模なテキスト・画像合成の要求に対処する。
従来のGANよりも大幅に改善され、サンプルの品質と速度の点で蒸留拡散モデルより優れていた。
論文 参考訳(メタデータ) (2023-01-23T16:05:45Z) - T2M-GPT: Generating Human Motion from Textual Descriptions with Discrete
Representations [34.61255243742796]
一般的なトレーニングレシピ (EMA と Code Reset) を用いた単純な CNN ベースの VQ-VAE により,高品質な離散表現が得られることを示す。
その単純さにもかかわらず、我々のT2M-GPTは競合するアプローチよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-01-15T09:34:42Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - GPT-too: A language-model-first approach for AMR-to-text generation [22.65728041544785]
本稿では,事前学習型言語モデルとサイクル整合性に基づく再描画を併用したアプローチを提案する。
アプローチの単純さにもかかわらず、実験結果は、これらのモデルが過去のすべての手法より優れていることを示している。
論文 参考訳(メタデータ) (2020-05-18T22:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。