論文の概要: ChatGPT-steered Editing Instructor for Customization of Abstractive
Summarization
- arxiv url: http://arxiv.org/abs/2305.02483v1
- Date: Thu, 4 May 2023 01:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 17:26:39.249414
- Title: ChatGPT-steered Editing Instructor for Customization of Abstractive
Summarization
- Title(参考訳): 抽象要約のカスタマイズのためのChatGPT-steered Editing Instructor
- Authors: Wen Xiao, Yujia Xie, Giuseppe Carenini, Pengcheng He
- Abstract要約: 大規模な言語モデル(ChatGPT)はジェネレータとエディタの両方として機能する。
より小さなモデルがユーザ固有のインストラクターとして機能し、ユーザニーズに向けて生成プロセスを導く。
インストラクタは、大規模なエディタモデルからのフィードバックを活用して、教師生成を最適化するエディタステアリング強化学習を用いて訓練される。
- 参考スコア(独自算出の注目度): 41.933059711887935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tailoring outputs of large language models, such as ChatGPT, to specific user
needs remains a challenge despite their impressive generation quality. In this
paper, we propose a tri-agent generation pipeline consisting of a generator, an
instructor, and an editor to enhance the customization of generated outputs.
The generator produces an initial output, the user-specific instructor
generates editing instructions, and the editor generates a revised output
aligned with user preferences. The inference-only large language model
(ChatGPT) serves as both the generator and the editor, while a smaller model
acts as the user-specific instructor to guide the generation process toward
user needs. The instructor is trained using editor-steered reinforcement
learning, leveraging feedback from the large-scale editor model to optimize
instruction generation. Experimental results on two abstractive summarization
datasets demonstrate the effectiveness of our approach in generating outputs
that better fulfill user expectations.
- Abstract(参考訳): ChatGPTのような大規模言語モデルのアウトプットを特定のユーザのニーズに合わせることは、素晴らしい世代品質にもかかわらず、依然として課題である。
本稿では,生成する出力のカスタマイズ性を高めるために,ジェネレータ,インストラクタ,エディタからなるトリエージェント生成パイプラインを提案する。
ジェネレータは初期出力を生成し、ユーザ固有のインストラクターは編集命令を生成し、エディタはユーザの好みに沿った修正出力を生成する。
推論のみの大規模言語モデル(ChatGPT)はジェネレータとエディタの両方として機能し、小さなモデルはユーザ固有のインストラクターとして機能し、生成プロセスをユーザニーズに導く。
インストラクタは,大規模なエディタモデルからのフィードバックを利用して,教師生成の最適化を行う。
2つの抽象的な要約データセットの実験結果から,ユーザの期待に応える出力生成におけるアプローチの有効性が示された。
関連論文リスト
- Specify and Edit: Overcoming Ambiguity in Text-Based Image Editing [24.316956641791034]
拡散型編集システムのためのゼロショット推論パイプラインを提案する。
入力命令を特定の命令に分解するために,大言語モデル (LLM) を用いる。
我々のパイプラインは、編集モデルの解釈可能性を改善し、出力の多様性を高めます。
論文 参考訳(メタデータ) (2024-07-29T17:59:57Z) - Prompt Optimization via Adversarial In-Context Learning [51.18075178593142]
adv-ICLは、ジェネレータとディスクリミネータの間の2プレイヤーゲームとして実装される。
ジェネレータは、判別器を騙すのに十分な出力を生成する。
本稿では,Adv-ICLが最先端のプロンプト最適化技術を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-12-05T09:44:45Z) - SPROUT: an Interactive Authoring Tool for Generating Programming Tutorials with the Visualization of Large Language Models [19.885485760758783]
大規模言語モデル(LLM)の急速な開発は、プログラミングチュートリアルの作成効率に革命をもたらした。
プログラミングチュートリアル作成タスクを実行可能なステップに分解する,新しいアプローチを導入する。
次に,SPROUTを提案する。SPROUTは,プログラミングチュートリアル作成プロセスのより深い制御と理解を可能にする,インタラクティブな可視化機能を備えたオーサリングツールである。
論文 参考訳(メタデータ) (2023-12-04T10:46:52Z) - Self-Instruct: Aligning Language Models with Self-Generated Instructions [76.42871502364697]
Self-Instructは、事前訓練された言語モデルの命令フォロー機能を改善するためのフレームワークである。
私たちのパイプラインは、言語モデルから命令、入力、および出力のサンプルを生成し、その後、元のモデルを微調整するためにそれらを使用する前に、無効または類似のサンプルをフィルタします。
さらなる評価のために、新規タスクのエキスパートによる指示のセットをキュレートし、GPT3とセルフインストラクトのチューニングが既存の公開インストラクションデータセットを大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:59:19Z) - PePe: Personalized Post-editing Model utilizing User-generated
Post-edits [28.749742163017544]
この課題に対処するために、パーソナライズされた後編集フレームワークを導入します。
まず,ライブ機械翻訳システムからユーザの好みを記述した後編集データを収集する。
次に、APEフレームワーク上で、識別器モジュールとユーザ固有のパラメータを組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-21T06:09:58Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Contrastive Triple Extraction with Generative Transformer [72.21467482853232]
生成変換器を用いた新しい3重抽出モデルを提案する。
具体的には,エンコーダデコーダをベースとした1つの共有トランスフォーマモジュールを提案する。
忠実な結果を得るために,新しい三重項コントラストトレーニングオブジェクトを提案する。
論文 参考訳(メタデータ) (2020-09-14T05:29:24Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。