論文の概要: Discourse-Aware Prompt Design for Text Generation
- arxiv url: http://arxiv.org/abs/2112.05717v1
- Date: Fri, 10 Dec 2021 18:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-13 13:14:40.035015
- Title: Discourse-Aware Prompt Design for Text Generation
- Title(参考訳): テキスト生成のための談話認識プロンプトデザイン
- Authors: Marjan Ghazvininejad, Vladimir Karpukhin, Asli Celikyilmaz
- Abstract要約: そこで本研究では, 簡易かつ効率的な手法により, プロンプトベースの条件付きテキスト生成を改善することができることを示す。
まず、人文テキストの高レベルな談話構造を、プレフィックスパラメータのテクスチャ階層的ブロッキングでモデル化できることを示す。
第2に,ネットワークの各レイヤにおけるプレフィックスパラメータのテキスト分割間隔を導入し,ソフトマックス関数のスパース変換を学習することで,スパースプレフィックスチューニングを提案する。
- 参考スコア(独自算出の注目度): 13.835916386769474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current efficient fine-tuning methods (e.g., adapters, prefix-tuning, etc.)
have optimized conditional text generation via training a small set of extra
parameters of the neural language model, while freezing the rest for
efficiency. While showing strong performance on some generation tasks, they
don't generalize across all generation tasks. In this work, we show that prompt
based conditional text generation can be improved with simple and efficient
methods that simulate modeling the discourse structure of human written text.
We introduce two key design choices: First we show that a higher-level
discourse structure of human written text can be modelled with
\textit{hierarchical blocking} on prefix parameters that enable spanning
different parts of the input and output text and yield more coherent output
generations. Second, we propose sparse prefix tuning by introducing
\textit{attention sparsity} on the prefix parameters at different layers of the
network and learn sparse transformations on the softmax-function, respectively.
We find that sparse attention enables the prefix-tuning to better control of
the input contents (salient facts) yielding more efficient tuning of the
prefix-parameters. Experiments on a wide-variety of text generation tasks show
that structured design of prefix parameters can achieve comparable results to
fine-tuning all parameters while outperforming standard prefix-tuning on all
generation tasks even in low-resource settings.
- Abstract(参考訳): 現在の効率的な微調整法(アダプタ、プレフィックスチューニングなど)は、ニューラルネットワークモデルの小さなパラメータセットをトレーニングし、残りを効率的に凍結することで条件付きテキスト生成を最適化している。
いくつかのジェネレーションタスクで強いパフォーマンスを示す一方で、すべてのジェネレーションタスクで一般化するわけではない。
本研究では,人間の文章の談話構造のモデル化をシミュレートする簡易かつ効率的な手法により,プロンプトベースの条件付きテキスト生成を改善できることを示す。
まず,入力文と出力文の異なる部分にまたがり,より一貫性のある出力生成を可能にするプレフィックスパラメータに対して,人間の文章の上位レベルの談話構造を \textit{hierarchical blocking} でモデル化できることを示す。
次に,ネットワークの異なるレイヤのプレフィックスパラメータに \textit{attention sparsity} を導入し,ソフトマックス関数のスパース変換を学習することで,スパースプレフィックスチューニングを提案する。
疎注意により、プレフィックスチューニングにより、プレフィックスパラメータのより効率的なチューニングを実現する入力内容(意味のある事実)をよりよく制御できることがわかった。
テキスト生成タスクの多種多様な実験により、低リソース設定でも全ての生成タスクに対して標準的なプレフィックスチューニングを達成しつつ、すべてのパラメータを微調整することで、プレフィックスパラメータの構造設計が同等の結果が得られることが示された。
関連論文リスト
- Towards Infinite-Long Prefix in Transformer [18.24137806007111]
本研究では,全パラメータの微調整性能に適合するプロンプト法と文脈に基づく微調整法について検討する。
無限長のプレフィックスではなく、トレーニング可能なパラメータをいくつか導入し、微調整するだけでよいアルゴリズムを実装している。
提案手法は, フルパラメータ細調整, P-Tuning V2, LoRA などの既存手法と比較して, 優れた性能, 競争性を実現している。
論文 参考訳(メタデータ) (2024-06-20T06:56:35Z) - RIFF: Learning to Rephrase Inputs for Few-shot Fine-tuning of Language Models [4.085425430499285]
本稿では,パラメータ効率のよい微調整手法と合わせて,元のタスクの入力テキストを変更することの影響について検討する。
入力テキストの書き直しを効果的に行うため,最大辺縁類似度を目標とした数発のパラフレーズモデルを訓練する。
本研究では, パラメータ効率のよい微調整だけで達成できることを超えて, 列車におけるパラフレーズとテスト時間によるデータ豊か化により, 性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-04T17:58:09Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - LRANet: Towards Accurate and Efficient Scene Text Detection with
Low-Rank Approximation Network [63.554061288184165]
低ランク近似に基づく新しいパラメータ化テキスト形状法を提案する。
異なるテキストの輪郭間の形状相関を探索することにより, 形状表現における一貫性, コンパクト性, 単純性, 頑健性を実現する。
我々はLRANetという名前の正確で効率的な任意の形状のテキスト検出器を実装した。
論文 参考訳(メタデータ) (2023-06-27T02:03:46Z) - Inducer-tuning: Connecting Prefix-tuning and Adapter-tuning [53.72897232951918]
インデューサチューニングはプレフィックスチューニングとファインチューニングのパフォーマンスギャップを埋めることができることを示す。
そこで本研究では,アクセプションチューニングにおける残形を活用しつつ,プレフィックスチューニングとして正確なメカニズムを共有する,新しいプレフィックスチューニング-textitinducer-tuningを提案する。
論文 参考訳(メタデータ) (2022-10-26T04:39:42Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Outline to Story: Fine-grained Controllable Story Generation from
Cascaded Events [39.577220559911055]
長文のきめ細かい制御が可能な生成のためのテストベッドとして,"Outline to Story" (O2S) という新しいタスクを提案する。
次に、最新のキーワード抽出技術で構築された将来のベンチマーク用のデータセットを作成します。
論文 参考訳(メタデータ) (2021-01-04T08:16:21Z) - Prefix-Tuning: Optimizing Continuous Prompts for Generation [85.6357778621526]
微調整は、大規模な事前訓練された言語モデルを使用して下流のタスクを実行する事実上の方法です。
自然言語生成タスクの微調整に代わる軽量なプレフィックスチューニングを提案する。
パラメータの0.1%しか学習しないことで、プレフィックスチューニングは完全なデータ設定で同等のパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-01-01T08:00:36Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。