論文の概要: Generative Sentiment Transfer via Adaptive Masking
- arxiv url: http://arxiv.org/abs/2302.12045v1
- Date: Thu, 23 Feb 2023 14:17:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-24 14:58:37.306682
- Title: Generative Sentiment Transfer via Adaptive Masking
- Title(参考訳): アダプティブマスキングによる生成的感情伝達
- Authors: Yingze Xie, Jie Xu, LiQiang Qiao, Yun Liu, Feiren Huang, Chaozhuo Li
- Abstract要約: Sentiment Transferは、入力テキストを修正して、元のセマンティックコンテンツを保持しながら、与えられた感情の極性を満たすことを目的としている。
既存の明示的なアプローチは、単に以前の言語知識に基づいて感情トークンを識別し、マスクするのが一般的である。
注意機構に基づいた適応型タスク関連マスクを学習するための新しいAM-STモデルを提案する。
- 参考スコア(独自算出の注目度): 9.093228123404929
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Sentiment transfer aims at revising the input text to satisfy a given
sentiment polarity while retaining the original semantic content. The nucleus
of sentiment transfer lies in precisely separating the sentiment information
from the content information. Existing explicit approaches generally identify
and mask sentiment tokens simply based on prior linguistic knowledge and
manually-defined rules, leading to low generality and undesirable transfer
performance. In this paper, we view the positions to be masked as the learnable
parameters, and further propose a novel AM-ST model to learn adaptive
task-relevant masks based on the attention mechanism. Moreover, a
sentiment-aware masked language model is further proposed to fill in the blanks
in the masked positions by incorporating both context and sentiment polarity to
capture the multi-grained semantics comprehensively. AM-ST is thoroughly
evaluated on two popular datasets, and the experimental results demonstrate the
superiority of our proposal.
- Abstract(参考訳): Sentiment Transferは、入力テキストを修正して、元のセマンティックコンテンツを保持しながら、与えられた感情の極性を満たすことを目的としている。
感情伝達の核心は、感情情報をコンテンツ情報から正確に分離することにある。
既存の明示的なアプローチは、単に事前の言語知識と手作業によるルールに基づいて感情トークンを識別し、マスクする。
本稿では,マスキング位置を学習可能なパラメータとして捉えるとともに,アテンション機構に基づいて適応型タスク関連マスクを学習する新しいam-stモデルを提案する。
さらに, 感情認識型マスク言語モデルを提案し, 文脈と感情の極性の両方を取り入れ, 包括的に多項目意味を捉えることにより, マスク位置の空白を埋める。
AM-STは2つの一般的なデータセットに対して徹底的に評価され,提案手法の優位性を示す実験結果が得られた。
関連論文リスト
- Adaptive Prompt Learning with Negative Textual Semantics and Uncertainty Modeling for Universal Multi-Source Domain Adaptation [15.773845409601389]
Universal Multi-source Domain Adaptation (UniMDA)は、複数のラベル付きソースドメインからの知識をラベルなしターゲットドメインに転送する。
既存のソリューションでは、未知のサンプルを検出するための画像特徴の発掘に重点を置いており、テキストセマンティクスに含まれる豊富な情報を無視している。
本論文では,UniMDA分類タスクのテキスト意味論と不確実性モデリング手法を用いた適応型プロンプト学習を提案する。
論文 参考訳(メタデータ) (2024-04-23T02:54:12Z) - Tell, Don't Show!: Language Guidance Eases Transfer Across Domains in Images and Videos [69.29778009769862]
ラベル付きソースから未ラベルのターゲットデータへの識別的知識の堅牢な転送をドメインギャップでガイドするフレームワークであるLaGTranを紹介する。
意味的にリッチなテキストモダリティがより好ましい転送特性を持つという我々の観察に触発された我々は、ソース学習されたテキスト分類器を用いて、ターゲットテキスト記述の予測を生成するための転送機構を考案した。
言語指導による私たちのアプローチは驚くほど簡単でシンプルですが、GeoNetやDomainNetといった挑戦的なデータセットに対する以前のアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2024-03-08T18:58:46Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - Breaking Down Word Semantics from Pre-trained Language Models through
Layer-wise Dimension Selection [0.0]
本稿では,レイヤ間の中間出力にバイナリマスクを適用することにより,BERTから意味感覚を分離することを目的とする。
2つの異なる文の目的語が同じ意味を持つかどうかを判定するために、二分分類により、アンタングル埋め込みを評価する。
論文 参考訳(メタデータ) (2023-10-08T11:07:19Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - Semantic-aware Message Broadcasting for Efficient Unsupervised Domain
Adaptation [40.939984198850496]
教師なしドメイン適応(UDA)のための,より情報的かつ柔軟な特徴アライメントを可能にする,セマンティック・アウェア・メッセージ・ブロードキャスト(SAMB)を提案する。
学習したグループトークンのグループをノードとして導入し、すべての画像トークンからグローバル情報を集約する。
このようにして、メッセージブロードキャストはグループトークンに対して、効果的なドメインアライメントのためのより情報的で多様な情報を学ぶことを奨励します。
論文 参考訳(メタデータ) (2022-12-06T04:09:47Z) - Word Order Matters when you Increase Masking [70.29624135819884]
本研究では,事前学習対象自体に対する位置エンコーディングの除去効果について検討し,モデルが共起点のみの位置情報を再構成できるかどうかを検証した。
位置情報の必要性はマスキングの量とともに増大し、位置エンコーディングのないマスキング言語モデルではタスク上でこの情報を再構築できないことがわかった。
論文 参考訳(メタデータ) (2022-11-08T18:14:04Z) - MaskCLIP: Masked Self-Distillation Advances Contrastive Language-Image
Pretraining [138.86293836634323]
MaskCLIPは、新たに提案されたマスク付き自己蒸留をコントラスト言語イメージ事前学習に組み込む。
MaskCLIPは、言語エンコーダの誘導により、線形探索、微調整、ゼロショット性能において優れた結果が得られる。
論文 参考訳(メタデータ) (2022-08-25T17:59:58Z) - Context-Aware Mixup for Domain Adaptive Semantic Segmentation [52.1935168534351]
Unsupervised domain adapt (UDA) は、ラベル付きソースドメインのモデルをラベル付きターゲットドメインに適応させることを目的としている。
ドメイン適応型セマンティックセグメンテーションのためのエンド・ツー・エンドコンテキスト・アウェア・ミックスアップ(CAMix)を提案する。
実験結果から,提案手法は最先端の手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2021-08-08T03:00:22Z) - Disentangling Representations of Text by Masking Transformers [27.6903196190087]
トランスウェイトや隠れたユニット上のバイナリマスクを学習し、特定の変動要因と相関する特徴のサブセットを明らかにします。
本稿では,映画評論における感情表現をジャンルから切り離す能力,つぶやきにおける方言からの「毒性」,意味論からの構文について評価する。
論文 参考訳(メタデータ) (2021-04-14T22:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。