論文の概要: Sampling with Attribute-Related Information for Controlling Language
Models
- arxiv url: http://arxiv.org/abs/2205.06036v1
- Date: Thu, 12 May 2022 11:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 19:47:13.774535
- Title: Sampling with Attribute-Related Information for Controlling Language
Models
- Title(参考訳): 言語モデル制御のための属性関連情報を用いたサンプリング
- Authors: Shangda Wu, Maosong Sun
- Abstract要約: 本稿では,複雑なエンジニアリングや余分なデータを必要としない,新しい簡単なガイド付きデコーディング手法Gamma Smplingを提案する。
Gamma Samplingは、サンプルプロセスに属性関連情報を導入し、言語モデルをガイドして、望ましい属性を持つテキストを生成する。
生成したテキストのトピックや感情を制御する実験は、Gamma Smplingが生成したサンプルの多様性、属性関連性、全体的な品質に優れていることを示している。
- 参考スコア(独自算出の注目度): 86.72661027591394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dominant approaches for controlling language models are based on
fine-tuning large language models or prompt engineering. However, these methods
often require condition-specific data or considerable hand-crafting. We propose
a new simple guided decoding method, Gamma Sampling, which does not require
complex engineering and any extra data. Gamma Sampling introduces
attribute-related information (provided by humans or language models
themselves) into the sampling process to guide language models to generate
texts with desired attributes. Experiments on controlling topics and sentiments
of generated text show Gamma Sampling to be superior in diversity, attribute
relevance and overall quality of generated samples while maintaining a fast
generation speed. In addition, we successfully applied Gamma Sampling to
control other attributes of language such as relatedness and repetition, which
further demonstrates the versatility and effectiveness of this method. Gamma
Sampling is now available in the python package samplings via import gamma
sampling from samplings.
- Abstract(参考訳): 言語モデルを制御する主要なアプローチは、微調整された大きな言語モデルやプロンプトエンジニアリングに基づいている。
しかし、これらの方法は条件固有のデータやかなりの手作りを必要とすることが多い。
複雑なエンジニアリングや余分なデータを必要としない,新しい簡単なガイド付きデコーディング手法Gamma Smplingを提案する。
Gamma Samplingは、属性関連情報(人間や言語モデル自体が提供する)をサンプリングプロセスに導入し、言語モデルに望ましい属性を持つテキストを生成する。
生成したテキストのトピックや感情を制御する実験では、ガンマサンプリングは、生成したサンプルの多様性、属性の関連性、全体的な品質に優れ、生成速度は速い。
さらに, 関連性や反復性などの言語特性の制御にガンマサンプリングを応用し, 本手法の汎用性と有効性をさらに実証した。
Gamma Samplingは、サンプリングからのインポートガンマサンプリングを通じて、pythonパッケージサンプリングで利用可能である。
関連論文リスト
- Balancing Diversity and Risk in LLM Sampling: How to Select Your Method and Parameter for Open-Ended Text Generation [60.493180081319785]
本稿では,各復号工程における多様性とリスクのトレードオフを考慮し,トラクションサンプリング手法の本質的な能力を推定する体系的手法を提案する。
本研究は,既存のトラクションサンプリング手法の総合的な比較と,ユーザのガイドラインとして推奨されるパラメータについて紹介する。
論文 参考訳(メタデータ) (2024-08-24T14:14:32Z) - Turning Up the Heat: Min-p Sampling for Creative and Coherent LLM Outputs [4.122612309805664]
大規模言語モデル(LLM)は、各復号ステップにおける語彙上の確率分布から次のトークンをサンプリングしてテキストを生成する。
トップトークンの確率に応じてスケールすることでモデルの信頼度に基づいてサンプリングしきい値を調整する動的トランケーション法である min-p サンプリングを提案する。
我々はGPQA、GSM8K、AlpacaEval Creative Writingなどのベンチマーク実験を行い、min-pサンプリングが生成したテキストの品質と多様性を特に高温で改善することを示した。
論文 参考訳(メタデータ) (2024-07-01T08:37:25Z) - Unsupervised Calibration through Prior Adaptation for Text
Classification using Large Language Models [37.39843935632105]
ラベル付きサンプルを必要とせずにテキスト分類タスクを実行するために,先行クラス分布に適応する手法を提案する。
その結果,これらの手法は,プロンプト内の訓練ショット数が異なる場合,適応しないモデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-07-13T12:11:36Z) - Extrapolating Multilingual Understanding Models as Multilingual
Generators [82.1355802012414]
本稿では,多言語理解モデルに統一モデルを得るための生成能力を付与する手法について検討する。
少数の新しいパラメータを持つ多言語ジェネレータにエンコーダを適用するために,textbfSemantic-textbfGuided textbfAlignment-then-Denoising (SGA)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-22T15:33:21Z) - MacLaSa: Multi-Aspect Controllable Text Generation via Efficient
Sampling from Compact Latent Space [110.85888003111653]
マルチアスペクト制御可能なテキスト生成は、複数の望ましい属性を同時に持つ流動文を生成することを目的としている。
マルチアスペクト制御のための新しいアプローチ、すなわちMacLaSaを導入し、複数の側面に対してコンパクトな潜在空間を推定する。
また,MacLaSaは,高い推論速度を維持しつつ,属性関連性やテキスト品質を高いベースラインで向上させることを示す。
論文 参考訳(メタデータ) (2023-05-22T07:30:35Z) - Arithmetic Sampling: Parallel Diverse Decoding for Large Language Models [65.52639709094963]
ビームサーチやガンベルトップkサンプリングのような手法は、ビームの各要素に対して異なる出力を保証できるが、並列化は容易ではない。
本稿では,大言語モデルによって暗黙的に定義された算術符号書に従ってサンプリングを行うフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-18T22:19:41Z) - Step-unrolled Denoising Autoencoders for Text Generation [17.015573262373742]
本稿では,SUNDAE(Step-unrolled Denoising Autoencoder)というテキスト生成モデルを提案する。
SUNDAEはトークンの列に繰り返し適用され、ランダムな入力から始まり、収束するまで毎回改善される。
拡散法よりも少ないイテレーションで収束する単純な改良演算子を提案する。
論文 参考訳(メタデータ) (2021-12-13T16:00:33Z) - Generating diverse and natural text-to-speech samples using a quantized
fine-grained VAE and auto-regressive prosody prior [53.69310441063162]
本稿では,より自然な音響サンプルを生成できる離散潜在空間における逐次前処理を提案する。
本研究では,聴取試験,自動音声認識(ASR)性能の客観的指標,韻律特性の測定によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2020-02-06T12:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。