論文の概要: Same Author or Just Same Topic? Towards Content-Independent Style
Representations
- arxiv url: http://arxiv.org/abs/2204.04907v1
- Date: Mon, 11 Apr 2022 07:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 03:11:43.721721
- Title: Same Author or Just Same Topic? Towards Content-Independent Style
Representations
- Title(参考訳): 同じ著者か、同じトピックか?
コンテンツに依存しないスタイル表現に向けて
- Authors: Anna Wegmann, Marijn Schraagen, Dong Nguyen
- Abstract要約: 本稿では,会話やドメインラベルを用いてコンテンツを制御するAVトレーニングタスクのバリエーションを紹介する。
会話の制御によって訓練された表現は、ドメインで訓練された表現よりも、コンテンツから独立したスタイルで訓練された表現よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 5.773113657377124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linguistic style is an integral component of language. Recent advances in the
development of style representations have increasingly used training objectives
from authorship verification (AV): Do two texts have the same author? The
assumption underlying the AV training task (same author approximates same
writing style) enables self-supervised and, thus, extensive training. However,
a good performance on the AV task does not ensure good "general-purpose" style
representations. For example, as the same author might typically write about
certain topics, representations trained on AV might also encode content
information instead of style alone. We introduce a variation of the AV training
task that controls for content using conversation or domain labels. We evaluate
whether known style dimensions are represented and preferred over content
information through an original variation to the recently proposed STEL
framework. We find that representations trained by controlling for conversation
are better than representations trained with domain or no content control at
representing style independent from content.
- Abstract(参考訳): 言語スタイルは言語の不可欠な構成要素である。
スタイル表現の開発における最近の進歩は、著者検証(AV): 2つのテキストが同じ著者を持つか?
avトレーニングタスクの基盤となる前提(著者は同じ書き方に近い)は、自己監督が可能であり、その結果、広範なトレーニングが可能になる。
しかし、AVタスクにおける優れたパフォーマンスは、優れた汎用的なスタイル表現を保証するものではない。
例えば、同じ著者が特定のトピックについて書いている場合、AVで訓練された表現は、スタイルのみでなくコンテンツ情報をエンコードする。
本稿では,会話やドメインラベルを用いてコンテンツを制御するAVトレーニングタスクのバリエーションを紹介する。
本稿では,最近提案されたstlフレームワークのオリジナルバリエーションを通して,既知のスタイル次元がコンテンツ情報よりも表現され,好まれるかどうかを評価する。
会話の制御によって訓練された表現は、コンテンツから独立したスタイルを表現するために、ドメインで訓練された表現よりも優れているか、コンテント制御がないことが分かりました。
関連論文リスト
- Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - Few-shot Image Generation via Style Adaptation and Content Preservation [60.08988307934977]
我々は、GAN転送に画像翻訳モジュールを導入し、モジュールはジェネレータにスタイルとコンテンツを分離するように教える。
我々の手法はショット設定がほとんどない状態で、常に最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-11-30T01:16:53Z) - Can Authorship Representation Learning Capture Stylistic Features? [5.812943049068866]
本研究では,サロゲートオーサシップ予測タスクで学習した表現が,実際に書体に敏感であることを示す。
結果として、著者の表現は、時間とともに話題が漂うような、ある種のデータシフトに対して堅牢であることが期待できる。
我々の発見は、スタイル転送のようなスタイル表現を必要とする下流アプリケーションへの扉を開くかもしれない。
論文 参考訳(メタデータ) (2023-08-22T15:10:45Z) - Don't lose the message while paraphrasing: A study on content preserving
style transfer [61.38460184163704]
スタイル伝達研究の現実的な応用には,コンテンツ保存が不可欠である。
形式性伝達領域の例において、様々なスタイル転送モデルを比較する。
我々は,スタイル伝達のための最先端技術について,精密な比較研究を行っている。
論文 参考訳(メタデータ) (2023-08-17T15:41:08Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。