論文の概要: IGA : An Intent-Guided Authoring Assistant
- arxiv url: http://arxiv.org/abs/2104.07000v1
- Date: Wed, 14 Apr 2021 17:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:23:05.126086
- Title: IGA : An Intent-Guided Authoring Assistant
- Title(参考訳): IGA : インテントガイドによるオーサリングアシスタント
- Authors: Simeng Sun, Wenlong Zhao, Varun Manjunatha, Rajiv Jain, Vlad Morariu,
Franck Dernoncourt, Balaji Vasan Srinivasan, Mohit Iyyer
- Abstract要約: 我々は、言語モデリングの進歩を活用して、著者仕様に従ってテキストを生成し、言い換えるインタラクティブな書き込みアシスタントを構築する。
Intent-Guided Assistant (IGA)への入力は、特定の修辞的な指示に対応するタグが散在するテキスト形式で提供される。
我々は、データセットでラベル付けされた著者意図で言語モデルを微調整し、IGAがこれらのタグに生成したテキストを埋めて、ユーザが自分の好きなように編集できるようにする。
- 参考スコア(独自算出の注目度): 37.98368621931934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While large-scale pretrained language models have significantly improved
writing assistance functionalities such as autocomplete, more complex and
controllable writing assistants have yet to be explored. We leverage advances
in language modeling to build an interactive writing assistant that generates
and rephrases text according to fine-grained author specifications. Users
provide input to our Intent-Guided Assistant (IGA) in the form of text
interspersed with tags that correspond to specific rhetorical directives (e.g.,
adding description or contrast, or rephrasing a particular sentence). We
fine-tune a language model on a dataset heuristically-labeled with author
intent, which allows IGA to fill in these tags with generated text that users
can subsequently edit to their liking. A series of automatic and crowdsourced
evaluations confirm the quality of IGA's generated outputs, while a small-scale
user study demonstrates author preference for IGA over baseline methods in a
creative writing task. We release our dataset, code, and demo to spur further
research into AI-assisted writing.
- Abstract(参考訳): 大規模事前訓練型言語モデルでは、自動補完などの書き込み支援機能が大幅に改善されているが、より複雑で制御可能な書き込みアシスタントはまだ検討されていない。
我々は、言語モデリングの進歩を活用して、詳細な著者仕様に従ってテキストを生成し、言い換えるインタラクティブな書き込みアシスタントを構築する。
Intent-Guided Assistant (IGA)への入力は、特定の修辞的指示(例えば、記述やコントラストの追加、あるいは特定の文の言い換えなど)に対応するタグが散りばめられたテキスト形式で提供される。
著者意図でヒューリスティックにラベル付けされたデータセット上で言語モデルを微調整することで、igaがこれらのタグを生成テキストで埋め込むことができ、ユーザはその後、好みに合わせて編集することができます。
IGAが生成するアウトプットの品質を自動的およびクラウドソースで評価する一方で,小規模なユーザスタディでは,クリエイティブな文章作成作業におけるベースラインメソッドよりもIGAの方が好まれることを示す。
データセット、コード、デモをリリースし、AI支援書き込みに関するさらなる研究を促します。
関連論文リスト
- Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - Towards Full Authorship with AI: Supporting Revision with AI-Generated
Views [3.109675063162349]
大きな言語モデル(LLM)は、ユーザーがプロンプトを通じてテキストを生成できるようにすることで、ツールを書く際に新しいユーザーインターフェイス(UI)パラダイムを形作っている。
このパラダイムは、ユーザからシステムへの創造的なコントロールを移行することで、書き込みプロセスにおけるユーザのオーサシップと自律性を低下させる。
テキストフォーカス(Textfocals)は,文章作成におけるユーザの役割を強調する,人間中心のアプローチを調査するためのプロトタイプである。
論文 参考訳(メタデータ) (2024-03-02T01:11:35Z) - Answer is All You Need: Instruction-following Text Embedding via
Answering the Question [41.727700155498546]
本稿では、入力テキストに関する質問として命令を扱い、予測された回答を符号化して表現を得る新しい視点を提供する。
具体的には,抽象的質問応答タスクの言語モデルのみを微調整することで,この組込み解答のアイデアをインスタンス化するInBedderを提案する。
論文 参考訳(メタデータ) (2024-02-15T01:02:41Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Measuring Annotator Agreement Generally across Complex Structured,
Multi-object, and Free-text Annotation Tasks [79.24863171717972]
品質保証のための重要な指標は、IAA(Inter-annotator Agreement)である。
単純な分類的および順序的なラベリングタスクには対策があるが、より複雑なラベリングタスクを考える作業はほとんどない。
クリッペンドルフのαは、より単純なラベリングタスクでよく用いられるが、より広い適用性を持つ距離ベースの定式化を持つ。
論文 参考訳(メタデータ) (2022-12-15T20:12:48Z) - Beyond Text Generation: Supporting Writers with Continuous Automatic
Text Summaries [27.853155569154705]
本稿では,ユーザによる記述プロセスの計画,構造化,反映を支援するテキストエディタを提案する。
自動テキスト要約を用いて、連続的に更新された段落の要約をマージンアノテーションとして提供する。
論文 参考訳(メタデータ) (2022-08-19T13:09:56Z) - Effidit: Your AI Writing Assistant [60.588370965898534]
Effiditは、人工知能(AI)技術を使用して、ユーザーが高品質なテキストをより効率的に書けるようにするためのデジタルライティングアシスタントである。
Effiditでは、テキスト補完、エラーチェック、テキスト研磨、キーワード・トゥ・センテンス(K2S)、クラウド・インプット・メソッド(クラウドIME)の5つのカテゴリで機能を提供することで、筆記アシスタントの能力を大幅に拡大する。
論文 参考訳(メタデータ) (2022-08-03T02:24:45Z) - CoAuthor: Designing a Human-AI Collaborative Writing Dataset for
Exploring Language Model Capabilities [92.79451009324268]
我々は,GPT-3の創造的かつ議論的な記述を支援する能力を明らかにするために設計されたデータセットであるCoAuthorを提案する。
我々は、CoAuthorがGPT-3の言語、アイデア、コラボレーション機能に関する問題に対処できることを実証した。
インタラクション設計に関して,この作業がLMの約束や落とし穴に関して,より原則化された議論を促進する可能性について論じる。
論文 参考訳(メタデータ) (2022-01-18T07:51:57Z) - DRAG: Director-Generator Language Modelling Framework for Non-Parallel
Author Stylized Rewriting [9.275464023441227]
書き直しは、入力テキストを特定の著者のスタイルで書き直す作業である。
著者のスタイルでコンテンツの書き直しを行うためのディレクター・ジェネレータフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-28T06:52:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。