論文の概要: Positive Text Reframing under Multi-strategy Optimization
- arxiv url: http://arxiv.org/abs/2407.17940v1
- Date: Thu, 25 Jul 2024 10:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 14:18:41.001633
- Title: Positive Text Reframing under Multi-strategy Optimization
- Title(参考訳): マルチストラテジー最適化による正のテキストリフレーミング
- Authors: Shutong Jia, Biwei Cao, Qingqing Gao, Jiuxin Cao, Bo Liu,
- Abstract要約: 本稿では,流動的で多様なタスク制約のあるリフレーミングテキストを生成するフレームワークを提案する。
我々のフレームワークは、制約なしおよび制御なしのポジティブリフレーミングタスクにおいて、大幅な改善を実現している。
- 参考スコア(独自算出の注目度): 2.6345343328000856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differing from sentiment transfer, positive reframing seeks to substitute negative perspectives with positive expressions while preserving the original meaning. With the emergence of pre-trained language models (PLMs), it is possible to achieve acceptable results by fine-tuning PLMs. Nevertheless, generating fluent, diverse and task-constrained reframing text remains a significant challenge. To tackle this issue, a \textbf{m}ulti-\textbf{s}trategy \textbf{o}ptimization \textbf{f}ramework (MSOF) is proposed in this paper. Starting from the objective of positive reframing, we first design positive sentiment reward and content preservation reward to encourage the model to transform the negative expressions of the original text while ensuring the integrity and consistency of the semantics. Then, different decoding optimization approaches are introduced to improve the quality of text generation. Finally, based on the modeling formula of positive reframing, we propose a multi-dimensional re-ranking method that further selects candidate sentences from three dimensions: strategy consistency, text similarity and fluency. Extensive experiments on two Seq2Seq PLMs, BART and T5, demonstrate our framework achieves significant improvements on unconstrained and controlled positive reframing tasks.
- Abstract(参考訳): 感情伝達から逸脱したポジティブリフレーミングは、本来の意味を保ちながら、ネガティブな視点をポジティブな表現に置き換えようとしている。
プレトレーニング言語モデル (PLM) の出現により, PLM を微調整することで, 許容可能な結果が得られる。
それでも、流動的で多様なタスク制約のあるリフレーミングテキストを生成することは大きな課題である。
この問題に対処するため,本稿では,textbf{m}ulti-\textbf{s}trategy \textbf{o}ptimization \textbf{f}ramework (MSOF)を提案する。
ポジティブリフレーミングの目的から、まずポジティブな感情報酬とコンテンツ保存報酬を設計し、セマンティクスの整合性と整合性を確保しつつ、原文のネガティブな表現を変換するようモデルに促す。
そして、テキスト生成の品質を向上させるために、異なる復号最適化手法を導入する。
最後に、ポジティブリフレーミングのモデル化式に基づいて、戦略整合性、テキスト類似性、流布性の3次元から候補文を更に選択する多次元リグレード手法を提案する。
2つのSeq2Seq PLM(BARTとT5)の大規模な実験により、我々のフレームワークは、制約なしおよび制御されたポジティブリフレーミングタスクにおいて、大幅な改善を達成できることを示した。
関連論文リスト
- Beat: Bi-directional One-to-Many Embedding Alignment for Text-based Person Retrieval [66.61856014573742]
テキストベースの人物検索(TPR)は、テキスト記述に基づいて特定の個人を検索する難題である。
これまでは、テキストと画像のサンプルをモーダルシェード空間で整列させようと試みてきた。
本稿では,各サンプルに対して明確な最適化方向を提供する,効果的な双方向一対多埋め込みパラダイムを提案する。
論文 参考訳(メタデータ) (2024-06-09T03:06:55Z) - Confidence-aware Reward Optimization for Fine-tuning Text-to-Image Models [85.96013373385057]
人間のフィードバックデータに基づいて訓練された報酬関数を持つ微調整テキスト・ツー・イメージモデルは、モデル行動と人間の意図との整合性を実証した。
しかし、そのような報酬モデルによる過度な最適化は、単にプロキシの目的として機能し、微調整されたモデルの性能を損なう可能性がある。
本研究では,テキストプロンプトの集合に対して推定された報酬モデル信頼度に基づいてアライメントを強化する手法であるTextNormを提案する。
論文 参考訳(メタデータ) (2024-04-02T11:40:38Z) - Factually Consistent Summarization via Reinforcement Learning with
Textual Entailment Feedback [57.816210168909286]
我々は,この問題を抽象的な要約システムで解くために,テキストエンテーメントモデルの最近の進歩を活用している。
我々は、事実整合性を最適化するために、レファレンスフリーのテキストエンターメント報酬を用いた強化学習を用いる。
自動測定と人的評価の両結果から,提案手法は生成した要約の忠実さ,サリエンス,簡潔さを著しく向上させることが示された。
論文 参考訳(メタデータ) (2023-05-31T21:04:04Z) - TextGrad: Advancing Robustness Evaluation in NLP by Gradient-Driven
Optimization [35.8795761863398]
グラデーション駆動最適化を用いた新たな攻撃生成器であるTextGradを提案する。
本研究では,連続的なゆらぎのあるサイト選択と摂動変数を共最適化する効果的な凸緩和法を開発した。
1次攻撃生成法として、TextGradは、NLPモデルの堅牢性をさらに向上するために、敵の訓練に組み込むことができる。
論文 参考訳(メタデータ) (2022-12-19T05:55:58Z) - A Contrastive Framework for Neural Text Generation [46.845997620234265]
モデル変性の根底にある理由はトークン表現の異方性分布であることを示す。
モデル表現空間を校正するための対照的な学習目標であるSimCTGと,生成したテキストのコヒーレンスを維持しつつ多様性を高めるためのデコード手法であるコントラスト検索を提案する。
論文 参考訳(メタデータ) (2022-02-13T21:46:14Z) - Text Counterfactuals via Latent Optimization and Shapley-Guided Search [15.919650185010491]
本研究は,分類モデルにおける対実テキスト生成の問題について考察する。
我々は、モデルの予測を変えるために、テキストを最小限に変更することを目指している。
ホワイトボックスアプローチは、視覚における同様の問題にうまく適用されている。
論文 参考訳(メタデータ) (2021-10-22T05:04:40Z) - Neural Text Generation with Part-of-Speech Guided Softmax [82.63394952538292]
テキスト生成を導くために,言語アノテーション,すなわち部分音声(POS)を用いることを提案する。
提案手法は,比較品質を維持しつつ,より多様なテキストを生成できることを示した。
論文 参考訳(メタデータ) (2021-05-08T08:53:16Z) - TextGAIL: Generative Adversarial Imitation Learning for Text Generation [68.3579946817937]
本稿では,大規模な事前学習言語モデルを用いて,より信頼性の高い報酬ガイダンスを提供するテキスト生成のための生成逆模倣学習フレームワークを提案する。
提案手法では, テキスト生成性能の安定化と向上のために, コントラスト判別器とPPOを用いた。
論文 参考訳(メタデータ) (2020-04-07T00:24:35Z) - Pseudo-Convolutional Policy Gradient for Sequence-to-Sequence
Lip-Reading [96.48553941812366]
唇読解は唇運動系列から音声内容を推測することを目的としている。
seq2seqモデルの伝統的な学習プロセスには2つの問題がある。
本稿では,これら2つの問題に対処するために,PCPGに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T09:12:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。