論文の概要: Latent Prompt Tuning for Text Summarization
- arxiv url: http://arxiv.org/abs/2211.01837v1
- Date: Thu, 3 Nov 2022 14:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:17:23.931770
- Title: Latent Prompt Tuning for Text Summarization
- Title(参考訳): テキスト要約のための潜時プロンプトチューニング
- Authors: Yubo Zhang, Xingxing Zhang, Xun Wang, Si-qing Chen and Furu Wei
- Abstract要約: 本稿では,制御モードと制御不能モードの両方に適用可能な単一モデルであるLotus (Latent Prompt Tuning for Summarization)を提案する。
トレーニング中、ロータスは対照的な学習目標を用いて、ゴールドコントロール信号を持つプロンプトから潜在的なプロンプト表現を学習する。
実験では、4つの異なる要約データセットにわたる強い(制御不能な)要約モデルにおいて、制御不能なモードのロータスが一貫して改善されることを示した。
- 参考スコア(独自算出の注目度): 95.85520030785139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompts with different control signals (e.g., length, keywords, etc.) can be
used to control text summarization. When control signals are available, they
can control the properties of generated summaries and potentially improve
summarization quality (since more information are given). Unfortunately,
control signals are not already available during inference time. In this paper,
we propose Lotus (shorthand for Latent Prompt Tuning for Summarization), which
is a single model that can be applied in both controlled and uncontrolled
(without control signals) modes. During training, Lotus learns latent prompt
representations from prompts with gold control signals using a contrastive
learning objective. Experiments show Lotus in uncontrolled mode consistently
improves upon strong (uncontrollable) summarization models across four
different summarization datasets. We also demonstrate generated summaries can
be controlled using prompts with user specified control tokens.
- Abstract(参考訳): テキスト要約の制御には、異なる制御信号(長さ、キーワードなど)を持つプロンプトを用いることができる。
制御信号が利用可能であれば、生成した要約の性質を制御でき、(より多くの情報が提供されるため)要約品質を向上させることができる。
残念ながら、制御信号は推論時間中に利用できない。
本稿では,制御モードと制御モード(制御信号なし)モードの両方に適用可能な単一モデルであるlotusを提案する。
トレーニング中、ロータスは対照的な学習目標を用いて、ゴールドコントロール信号を持つプロンプトから潜在的なプロンプト表現を学習する。
実験では、4つの異なる要約データセットにまたがる強い(制御不能)要約モデルによって、制御不能モードのロータスが一貫して改善することを示した。
また、ユーザが指定した制御トークンを使って、生成した要約をプロンプトで制御できることを示す。
関連論文リスト
- LiFi: Lightweight Controlled Text Generation with Fine-Grained Control
Codes [46.74968005604948]
本稿では、制御されたテキスト生成のためのきめ細かい制御を備えた軽量なアプローチであるLIFIを提案する。
我々は、感情制御とトピック制御という従来の2つのタスクと、新たに提案された1つのタスクでLIFIを評価する。
論文 参考訳(メタデータ) (2024-02-10T11:53:48Z) - Fine-grained Controllable Video Generation via Object Appearance and
Context [74.23066823064575]
細粒度制御可能なビデオ生成法(FACTOR)を提案する。
FACTORは、オブジェクトの位置とカテゴリを含む、オブジェクトの外観とコンテキストを制御することを目的としている。
本手法は,オブジェクトの外観を微調整せずに制御し,オブジェクトごとの最適化作業を省く。
論文 参考訳(メタデータ) (2023-12-05T17:47:33Z) - Readout Guidance: Learning Control from Diffusion Features [101.95788268826664]
本稿では,学習信号を用いたテキスト・画像拡散モデル制御手法であるReadout Guidanceを提案する。
Readout Guidanceはリードアウトヘッドを使用し、トレーニング済みの凍結拡散モデルの特徴から信号を取り出すために訓練された軽量ネットワークである。
これらの読み出しは、ポーズ、深さ、エッジなどのシングルイメージ特性や、対応性や外観類似性といった複数の画像に関連する高次特性を符号化することができる。
論文 参考訳(メタデータ) (2023-12-04T18:59:32Z) - Prompt-Based Length Controlled Generation with Reinforcement Learning [48.49553921757085]
本稿では,高精度な長さ制御生成を実現するために,プロンプトベースの長さ制御手法を提案する。
我々は、トレーニング可能なモデルまたはルールベースの報酬モデルによって与えられる報酬信号を用いた強化学習を採用する。
提案手法は,CNNDMやNYTなどの一般的なデータセット上での要約タスクにおいて,プロンプトベースの長さ制御の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-08-23T09:43:10Z) - Cocktail: Mixing Multi-Modality Controls for Text-Conditional Image
Generation [79.8881514424969]
テキスト条件拡散モデルは多種多様な内容の高忠実度画像を生成することができる。
しかし、言語表現はしばしば、想定された目的像の曖昧な記述を示す。
様々なモダリティを1つの埋め込みに混ぜるパイプラインであるCocktailを提案する。
論文 参考訳(メタデータ) (2023-06-01T17:55:32Z) - Attend to the Right Context: A Plug-and-Play Module for
Content-Controllable Summarization [38.894418920684366]
本稿では,一般的な要約処理をコンテンツ制御可能な要約タスクに適応させるプラグイン・アンド・プレイモジュールRelAttnを提案する。
実験の結果,提案手法はすべての要約器を効果的に改善し,プレフィックスベースの手法や広く使用されているプラグアンドプレイモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-12-21T07:17:32Z) - CTRLsum: Towards Generic Controllable Text Summarization [54.69190421411766]
現在、制御可能な要約のための新しいフレームワークである。
本手法により,ユーザは要約システムと対話することで,生成された要約の複数の側面を制御できる。
単一の統一モデルを使用することで、sumは推論時に要約操作の幅広い範囲を達成できる。
論文 参考訳(メタデータ) (2020-12-08T08:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。