論文の概要: CoEdIT: Text Editing by Task-Specific Instruction Tuning
- arxiv url: http://arxiv.org/abs/2305.09857v2
- Date: Mon, 23 Oct 2023 23:17:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 01:06:46.659082
- Title: CoEdIT: Text Editing by Task-Specific Instruction Tuning
- Title(参考訳): CoEdIT:タスク特化インストラクションチューニングによるテキスト編集
- Authors: Vipul Raheja, Dhruv Kumar, Ryan Koo, Dongyeop Kang
- Abstract要約: CoEdIT (CoEdIT) は、テキスト編集システムである。
所望のテキストの属性を指定するユーザから命令を受け取り、編集されたテキストを出力する。
テキスト編集のためのタスク固有の命令の多種多様なコレクションに基づいて,大規模言語モデルを提案する。
- 参考スコア(独自算出の注目度): 18.824571167583432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce CoEdIT, a state-of-the-art text editing system for writing
assistance. CoEdIT takes instructions from the user specifying the attributes
of the desired text, such as "Make the sentence simpler" or "Write it in a more
neutral style," and outputs the edited text. We present a large language model
fine-tuned on a diverse collection of task-specific instructions for text
editing (a total of 82K instructions). Our model (1) achieves state-of-the-art
performance on various text editing benchmarks, (2) is competitive with
publicly available largest-sized LLMs trained on instructions while being
nearly 60x smaller, (3) is capable of generalizing to unseen edit instructions,
and (4) exhibits abilities to generalize to composite instructions containing
different combinations of edit actions. Through extensive qualitative and
quantitative analysis, we show that writers prefer the edits suggested by
CoEdIT relative to other state-of-the-art text editing models. Our code, data,
and models are publicly available at https://github.com/vipulraheja/coedit.
- Abstract(参考訳): 本稿では,現在最先端のテキスト編集システムであるCoEdITを紹介する。
CoEdIT は "Make the sentence simple" や "Write it in a more neutral style" といった所望のテキストの属性を指定するユーザからの指示を受け、編集されたテキストを出力する。
本稿では,テキスト編集のためのタスク特化命令群(合計82k命令)を微調整した大規模言語モデルを提案する。
本モデル(1)は,様々なテキスト編集ベンチマークにおいて最先端のパフォーマンスを達成し,(2)命令でトレーニングされた最大サイズllmと競合し,(2)未認識の編集命令に一般化し,(4)編集動作の異なる組合せを含む複合命令に一般化する能力を示す。
定性的かつ定量的な分析により、他の最先端テキスト編集モデルと比較して、著者はCoEdITが提案する編集を好むことを示す。
私たちのコード、データ、モデルはhttps://github.com/vipulraheja/coedit.comで公開されています。
関連論文リスト
- mEdIT: Multilingual Text Editing via Instruction Tuning [8.96270380908663]
mEdITは、執筆支援のための最先端のテキスト編集モデルである。
我々は、公開されている複数人の注釈付きテキスト編集データセットからデータをキュレートしてmEdITを構築する。
我々は,mEdITが多言語ベースライン上の新しい言語に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2024-02-26T10:33:36Z) - InstructEdit: Instruction-based Knowledge Editing for Large Language
Models [40.68941570466208]
InstructEditと呼ばれる命令ベースの編集技術を開発し、簡単な命令を使って様々なタスクパフォーマンスへのエディタの適応を容易にする。
予期せぬタスクを含む実験は、InstructEditが以前の強いベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2024-02-25T15:46:33Z) - SmartEdit: Exploring Complex Instruction-based Image Editing with
Multimodal Large Language Models [91.22477798288003]
本稿では,命令ベースの画像編集の新しいアプローチであるSmartEditを紹介する。
MLLM(Multimodal Large Language Models)を利用して、その理解と推論能力を強化する。
我々は,より複雑な命令に対して,SmartEditの編集機能を効果的に刺激することのできる,少量の複雑な命令編集データを示す。
論文 参考訳(メタデータ) (2023-12-11T17:54:11Z) - Optimisation-Based Multi-Modal Semantic Image Editing [58.496064583110694]
本稿では,複数の編集命令型に対応するために,推論時編集の最適化を提案する。
各損失関数の影響を調整することで、ユーザの好みに合わせてフレキシブルな編集ソリューションを構築することができる。
本手法は,テキスト,ポーズ,スクリブルといった編集条件を用いて評価し,複雑な編集を行う能力を強調した。
論文 参考訳(メタデータ) (2023-11-28T15:31:11Z) - Emu Edit: Precise Image Editing via Recognition and Generation Tasks [62.95717180730946]
本稿では,マルチタスク画像編集モデルであるEmu Editについて述べる。
我々は、地域ベースの編集、自由形式の編集、コンピュータビジョンタスクなど、前例のない範囲でマルチタスクに訓練する。
Emu Editは画像インペイント、超解像、編集タスクの構成といった新しいタスクに、ラベル付き例で一般化できることを示す。
論文 参考訳(メタデータ) (2023-11-16T18:55:58Z) - XATU: A Fine-grained Instruction-based Benchmark for Explainable Text
Updates [8.368558087934101]
本稿では,微粒な命令ベースの説明可能なテキスト編集用に設計された最初のベンチマークであるXATUを紹介する。
XATUは、語彙、構文、意味論、知識集約的な編集を取り入れ、幅広いトピックやテキストタイプをカバーしている。
既存のオープンおよびクローズドな大規模言語モデルをベンチマークに対して評価することにより、命令チューニングの有効性と、様々な編集タスクにおける基礎となるアーキテクチャの影響を実証する。
論文 参考訳(メタデータ) (2023-09-20T04:58:59Z) - Visual Instruction Inversion: Image Editing via Visual Prompting [34.96778567507126]
本稿では,視覚的プロンプトによる画像編集手法を提案する。
テキストと画像の拡散モデルのリッチで事前訓練された編集機能を利用して、視覚的なプロンプトを編集命令に反転させる。
論文 参考訳(メタデータ) (2023-07-26T17:50:10Z) - SWiPE: A Dataset for Document-Level Simplification of Wikipedia Pages [87.08880616654258]
我々は、SWiPEデータセットを導入し、英語のウィキペディア(EW)記事から単純なウィキペディア(SEW)記事への文書レベルの編集プロセスを再構築する。
我々はウィキペディアの編集者と協力して5000のEW-SEWドキュメントペアを注釈付けし、提案された19のカテゴリで4万以上の編集をラベル付けしています。
SWiPEで訓練されたモデルは、不要な編集を減らしながら、より複雑な編集を生成する。
論文 参考訳(メタデータ) (2023-05-30T16:52:42Z) - Improving Iterative Text Revision by Learning Where to Edit from Other
Revision Tasks [11.495407637511878]
反復的テキストリビジョンは文法的誤りの修正、読みやすさの向上や文脈的適切性の向上、文書全体の文構造の再編成によってテキスト品質を改善する。
近年の研究では、人間によるテキストからの反復的な修正プロセスにおいて、様々な種類の編集の理解と分類に焦点が当てられている。
我々は,編集可能なスパンを対応する編集意図で明示的に検出することにより,有用な編集を反復的に生成するエンド・ツー・エンドテキスト・リビジョン・システムの構築を目指している。
論文 参考訳(メタデータ) (2022-12-02T18:10:43Z) - EditEval: An Instruction-Based Benchmark for Text Improvements [73.5918084416016]
編集機能の自動評価のためのインストラクションベース、ベンチマーク、評価スイートであるEditEvalを提示する。
InstructGPTとPEERが最良であることを示す事前学習モデルをいくつか評価するが,ほとんどのベースラインは教師付きSOTA以下である。
我々の分析は、タスクの編集によく使われるメトリクスが必ずしも相関しているとは限らないことを示し、最高の性能を持つプロンプトに対する最適化は、必ずしも異なるモデルに対して強い堅牢性を持つとは限らないことを示唆している。
論文 参考訳(メタデータ) (2022-09-27T12:26:05Z) - Text Editing by Command [82.50904226312451]
ニューラルテキスト生成における一般的なパラダイムは、単一のステップでテキストを生成するワンショット生成である。
この制限をユーザが既存のテキストを編集するコマンドを発行することでシステムと対話するインタラクティブテキスト生成設定で解決する。
このデータセットに基づいてトレーニングされたトランスフォーマーベースモデルであるInteractive Editorは,ベースラインを上回り,自動評価と人的評価の両方において肯定的な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-24T08:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。