論文の概要: Personalized Abstractive Summarization by Tri-agent Generation Pipeline
- arxiv url: http://arxiv.org/abs/2305.02483v2
- Date: Fri, 1 Mar 2024 23:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 21:03:32.478382
- Title: Personalized Abstractive Summarization by Tri-agent Generation Pipeline
- Title(参考訳): トリエージェント生成パイプラインによるパーソナライズされた抽象要約
- Authors: Wen Xiao, Yujia Xie, Giuseppe Carenini, Pengcheng He
- Abstract要約: 出力パーソナライゼーションを強化するために,ジェネレータ,インストラクター,エディタからなる三エージェント生成パイプラインを提案する。
生成装置は、初期出力を生成し、インストラクターは、ユーザの好みに基づいて編集命令を自動的に生成し、編集者は、それらの好みに合わせて出力を洗練する。
我々は,大規模編集者モデルからのフィードバックを活かし,教師の指導力を高めるために,編集者による強化学習を用いて指導を行う。
- 参考スコア(独自算出の注目度): 69.38358552893762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tailoring outputs from large language models, like ChatGPT, to implicit user
preferences remains a challenge despite their impressive generative
capabilities. In this paper, we propose a tri-agent generation pipeline
comprising a generator, an instructor, and an editor to enhance output
personalization. The generator produces an initial output, the instructor
automatically generates editing instructions based on user preferences, and the
editor refines the output to align with those preferences. The inference-only
large language model (ChatGPT) serves as both the generator and editor, with a
smaller model acting as the instructor to guide output generation. We train the
instructor using editor-steered reinforcement learning, leveraging feedback
from a large-scale editor model to optimize instruction generation.
Experimental results on two abstractive summarization datasets demonstrate the
effectiveness of our approach in generating outputs that better meet user
expectations. Code is available at
\url{https://github.com/Wendy-Xiao/chatgpt_editing_summ}
- Abstract(参考訳): ChatGPTのような大きな言語モデルからのアウトプットを暗黙のユーザー嗜好に合わせることは、印象的な生成能力にもかかわらず、依然として課題である。
本稿では,出力パーソナライゼーションを強化するために,ジェネレータ,インストラクター,エディタからなる三元生成パイプラインを提案する。
ジェネレータは初期出力を生成し、インストラクターはユーザの好みに基づいて自動的に編集命令を生成し、エディタはそれらの好みに合わせて出力を洗練する。
推論のみの大規模言語モデル(ChatGPT)はジェネレータとエディタの両方として機能し、より小さなモデルはインストラクターとして機能して出力生成を誘導する。
我々は,大規模編集者モデルからのフィードバックを活用して,教師の指導力を向上させる。
2つの抽象的な要約データセットの実験結果から,ユーザの期待に応えたアウトプット生成におけるアプローチの有効性が示された。
コードは \url{https://github.com/Wendy-Xiao/chatgpt_editing_summ} で入手できる。
関連論文リスト
- Specify and Edit: Overcoming Ambiguity in Text-Based Image Editing [24.316956641791034]
拡散型編集システムのためのゼロショット推論パイプラインを提案する。
入力命令を特定の命令に分解するために,大言語モデル (LLM) を用いる。
我々のパイプラインは、編集モデルの解釈可能性を改善し、出力の多様性を高めます。
論文 参考訳(メタデータ) (2024-07-29T17:59:57Z) - Prompt Optimization via Adversarial In-Context Learning [51.18075178593142]
adv-ICLは、ジェネレータとディスクリミネータの間の2プレイヤーゲームとして実装される。
ジェネレータは、判別器を騙すのに十分な出力を生成する。
本稿では,Adv-ICLが最先端のプロンプト最適化技術を大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-12-05T09:44:45Z) - SPROUT: an Interactive Authoring Tool for Generating Programming Tutorials with the Visualization of Large Language Models [19.885485760758783]
大規模言語モデル(LLM)の急速な開発は、プログラミングチュートリアルの作成効率に革命をもたらした。
プログラミングチュートリアル作成タスクを実行可能なステップに分解する,新しいアプローチを導入する。
次に,SPROUTを提案する。SPROUTは,プログラミングチュートリアル作成プロセスのより深い制御と理解を可能にする,インタラクティブな可視化機能を備えたオーサリングツールである。
論文 参考訳(メタデータ) (2023-12-04T10:46:52Z) - Self-Instruct: Aligning Language Models with Self-Generated Instructions [76.42871502364697]
Self-Instructは、事前訓練された言語モデルの命令フォロー機能を改善するためのフレームワークである。
私たちのパイプラインは、言語モデルから命令、入力、および出力のサンプルを生成し、その後、元のモデルを微調整するためにそれらを使用する前に、無効または類似のサンプルをフィルタします。
さらなる評価のために、新規タスクのエキスパートによる指示のセットをキュレートし、GPT3とセルフインストラクトのチューニングが既存の公開インストラクションデータセットを大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:59:19Z) - PePe: Personalized Post-editing Model utilizing User-generated
Post-edits [28.749742163017544]
この課題に対処するために、パーソナライズされた後編集フレームワークを導入します。
まず,ライブ機械翻訳システムからユーザの好みを記述した後編集データを収集する。
次に、APEフレームワーク上で、識別器モジュールとユーザ固有のパラメータを組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-21T06:09:58Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Contrastive Triple Extraction with Generative Transformer [72.21467482853232]
生成変換器を用いた新しい3重抽出モデルを提案する。
具体的には,エンコーダデコーダをベースとした1つの共有トランスフォーマモジュールを提案する。
忠実な結果を得るために,新しい三重項コントラストトレーニングオブジェクトを提案する。
論文 参考訳(メタデータ) (2020-09-14T05:29:24Z) - POINTER: Constrained Progressive Text Generation via Insertion-based
Generative Pre-training [93.79766670391618]
ハードコントラストテキスト生成のための新しい挿入ベースアプローチであるPOINTERを提案する。
提案手法は,既存のトークン間で段階的に新しいトークンを並列に挿入することによって動作する。
結果として生じる粗大な階層構造は、生成プロセスを直感的で解釈可能である。
論文 参考訳(メタデータ) (2020-05-01T18:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。