論文の概要: Variational Inference for Learning Representations of Natural Language
Edits
- arxiv url: http://arxiv.org/abs/2004.09143v4
- Date: Mon, 4 Jan 2021 02:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:38:41.795244
- Title: Variational Inference for Learning Representations of Natural Language
Edits
- Title(参考訳): 自然言語編集における学習表現の変分推論
- Authors: Edison Marrese-Taylor, Machel Reid, Yutaka Matsuo
- Abstract要約: 本稿では,ベクトル表現の連続潜在空間を学習するために,変分推論を用いた新しい手法を提案する。
また、自然言語処理の文脈において、編集表現の質を測定するために特別に設計された下流タスクPEERを提案する。
- 参考スコア(独自算出の注目度): 24.775371434410328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Document editing has become a pervasive component of the production of
information, with version control systems enabling edits to be efficiently
stored and applied. In light of this, the task of learning distributed
representations of edits has been recently proposed. With this in mind, we
propose a novel approach that employs variational inference to learn a
continuous latent space of vector representations to capture the underlying
semantic information with regard to the document editing process. We achieve
this by introducing a latent variable to explicitly model the aforementioned
features. This latent variable is then combined with a document representation
to guide the generation of an edited version of this document. Additionally, to
facilitate standardized automatic evaluation of edit representations, which has
heavily relied on direct human input thus far, we also propose a suite of
downstream tasks, PEER, specifically designed to measure the quality of edit
representations in the context of natural language processing.
- Abstract(参考訳): 文書編集は、編集を効率的に保存し、適用できるようにするバージョン管理システムによって、情報生成の幅広いコンポーネントとなっている。
これを踏まえて,編集の分散表現を学習するタスクが最近提案されている。
そこで本研究では,変動推論を用いてベクトル表現の連続的潜在空間を学習し,文書編集プロセスにおいて基礎となる意味情報を取得する新しい手法を提案する。
上記の特徴を明示的にモデル化する潜在変数を導入することで、これを実現する。
この潜在変数はドキュメント表現と組み合わせられ、このドキュメントの編集バージョンの生成をガイドする。
また,これまで直接入力に大きく依存していた編集表現の標準化された自動評価を容易にするため,自然言語処理の文脈における編集表現の質を測定するために,下流タスクの組であるPEERを提案する。
関連論文リスト
- Task-Oriented Diffusion Inversion for High-Fidelity Text-based Editing [60.730661748555214]
textbfTask-textbfOriented textbfDiffusion textbfInversion (textbfTODInv) は、特定の編集タスクに適した実際の画像を反転して編集する新しいフレームワークである。
ToDInvは相互最適化によってインバージョンと編集をシームレスに統合し、高い忠実さと正確な編集性を保証する。
論文 参考訳(メタデータ) (2024-08-23T22:16:34Z) - EVEDIT: Event-based Knowledge Editing with Deductive Editing Boundaries [69.72012539060731]
大規模言語モデル(LLM)における効率的な知識編集(KE)の理論的枠組みを導入する。
本稿では,事象をイベント記述と組み合わせたイベントベースの知識編集タスクを提案する。
編集モデルにおける不確実性を解消するための既存の設定よりもイベントベースの編集の方が優れていることを実証的に示す。
論文 参考訳(メタデータ) (2024-02-17T16:34:50Z) - DUnE: Dataset for Unified Editing [3.7346004746366384]
自然言語文を編集するDUnE-an編集ベンチマークを導入する。
検索強化言語モデリングは、特殊な編集技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-27T18:56:14Z) - Beyond the Chat: Executable and Verifiable Text-Editing with LLMs [87.84199761550634]
近年,Large Language Models (LLMs) を利用した会話インタフェースが,文書編集時にフィードバックを得る手段として人気になっている。
InkSyncは、編集中のドキュメント内で直接実行可能な編集を推奨する編集インターフェースである。
論文 参考訳(メタデータ) (2023-09-27T00:56:17Z) - XATU: A Fine-grained Instruction-based Benchmark for Explainable Text Updates [7.660511135287692]
本稿では,微粒な命令ベースの説明可能なテキスト編集用に設計された最初のベンチマークであるXATUを紹介する。
XATUは、語彙、構文、意味論、知識集約的な編集といった難易度の細かいテキスト編集タスクについて検討している。
各種編集タスクにおける命令チューニングの有効性と基礎となるアーキテクチャの影響を実証する。
論文 参考訳(メタデータ) (2023-09-20T04:58:59Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Understanding Iterative Revision from Human-Written Text [10.714872525208385]
IteraTeRは、反復的に修正されたテキストの最初の大規模、複数ドメイン、編集意図の注釈付きコーパスである。
テキストのリビジョンプロセスをよりよく理解し、編集意図と執筆品質の間に重要なつながりを築き上げます。
論文 参考訳(メタデータ) (2022-03-08T01:47:42Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - Text Editing by Command [82.50904226312451]
ニューラルテキスト生成における一般的なパラダイムは、単一のステップでテキストを生成するワンショット生成である。
この制限をユーザが既存のテキストを編集するコマンドを発行することでシステムと対話するインタラクティブテキスト生成設定で解決する。
このデータセットに基づいてトレーニングされたトランスフォーマーベースモデルであるInteractive Editorは,ベースラインを上回り,自動評価と人的評価の両方において肯定的な結果が得られることを示す。
論文 参考訳(メタデータ) (2020-10-24T08:00:30Z) - A Structural Model for Contextual Code Changes [20.185486717922615]
部分的に編集されたコードスニペットが与えられた場合、私たちのゴールは、スニペットの残りの部分に対する編集の完了を予測することです。
提案モデルでは,最先端のシーケンシャルモデルよりも28%,編集コードの生成を学習する構文モデルよりも2倍高い精度を実現している。
論文 参考訳(メタデータ) (2020-05-27T07:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。