論文の概要: Help me write a poem: Instruction Tuning as a Vehicle for Collaborative
Poetry Writing
- arxiv url: http://arxiv.org/abs/2210.13669v1
- Date: Tue, 25 Oct 2022 00:07:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:31:17.727915
- Title: Help me write a poem: Instruction Tuning as a Vehicle for Collaborative
Poetry Writing
- Title(参考訳): 詩を書くのを手伝う: 詩を書くための車としての指導チューニング
- Authors: Tuhin Chakrabarty, Vishakh Padmakumar, He He
- Abstract要約: 本稿では,コラボレーティブな詩文作成システムであるCoPoetを紹介する。
ユーザのテキストの自動補完とは対照的に、CoPoetは所望のテキストの属性を指定するユーザ命令によって制御される。
15人のクラウドワーカーによる調査では、モナーキーから気候変動までさまざまなトピックについて、CoPoetを使って詩を書くことに成功した。
- 参考スコア(独自算出の注目度): 17.975181293647697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work in training large language models (LLMs) to follow natural
language instructions has opened up exciting opportunities for natural language
interface design. Building on the prior success of LLMs in the realm of
computer-assisted creativity, we aim to study if LLMs can improve the quality
of user-generated content through collaboration. We present CoPoet, a
collaborative poetry writing system. In contrast to auto-completing a user's
text, CoPoet is controlled by user instructions that specify the attributes of
the desired text, such as Write a sentence about `love' or Write a sentence
ending in `fly'. The core component of our system is a language model
fine-tuned on a diverse collection of instructions for poetry writing. Our
model is not only competitive with publicly available LLMs trained on
instructions (InstructGPT), but is also capable of satisfying unseen
compositional instructions. A study with 15 qualified crowdworkers shows that
users successfully write poems with CoPoet on diverse topics ranging from
Monarchy to Climate change. Further, the collaboratively written poems are
preferred by third-party evaluators over those written without the system.
- Abstract(参考訳): 近年,大規模言語モデル(LLM)を訓練して自然言語の指示に従う研究が,自然言語インタフェース設計のエキサイティングな機会を生み出している。
コンピュータ支援クリエイティビティの領域におけるLCMの先行的な成功に基づいて、LCMがコラボレーションを通じてユーザ生成コンテンツの質を向上させることができるかどうかを検討する。
本稿では,コラボレーティブな詩文作成システムであるCoPoetを紹介する。
ユーザのテキストの自動補完とは対照的に、copoetは“love”に関する文章を書いたり、“fly”で終わる文章を書いたりといった、望ましいテキストの属性を指定するユーザ指示によって制御される。
本システムの中核となるコンポーネントは,詩文の多種多様な命令集を微調整した言語モデルである。
我々のモデルは、インストラクション(インストラクションGPT)で訓練された公開LLMと競合するだけでなく、目に見えないコンストラクション命令を満たすことができる。
15人のクラウドワーカーによる調査では、モナーキーから気候変動までさまざまなトピックについて、CoPoetを使って詩を書くことに成功した。
さらに、協力的に書かれた詩は、システムなしで書かれたものよりも第三者評価者によって好まれる。
関連論文リスト
- Customizing Large Language Model Generation Style using Parameter-Efficient Finetuning [24.263699489328427]
ワンサイズフィットのすべての大規模言語モデル(LLM)は、人々が書くのを助けるためにますます使われています。
本稿では,Low-Rank Adaptationを用いたパラメータ効率ファインタニング(PEFT)がLLM世代を効果的に導くことができるかどうかを考察する。
論文 参考訳(メタデータ) (2024-09-06T19:25:18Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - Navigating the Path of Writing: Outline-guided Text Generation with Large Language Models [8.920436030483872]
本稿では,Large Language Models (LLMs) をユーザ整列テキスト生成のガイドとして,明示的なアウトラインを用いたLinging Pathを提案する。
我々のアプローチは、構造化された記述計画と推論パスからインスピレーションを得て、書き込みプロセス全体を通してユーザの意図を捉え、反映することに重点を置いています。
論文 参考訳(メタデータ) (2024-04-22T06:57:43Z) - Advancing Large Language Models to Capture Varied Speaking Styles and Respond Properly in Spoken Conversations [65.29513437838457]
現在の2つの旋回が同じ文であっても、異なるスタイルで話されるときの応答は相変わらず異なる。
本稿では,言語内容と発話スタイルをモデル化できるSpken-LLMフレームワークを提案する。
StyleTalkデータセットを使用してSpoken-LLMをトレーニングし、Spoken-LLMが話し方を学ぶのに役立つ2段階のトレーニングパイプラインを作成します。
論文 参考訳(メタデータ) (2024-02-20T07:51:43Z) - GhostWriter: Augmenting Collaborative Human-AI Writing Experiences
Through Personalization and Agency [1.7707677585873678]
大規模言語モデル(LLM)はより広く普及し、様々な形式の筆記補助を提供するのにユビキタスな用途を見出した。
我々はGhostWriterを紹介した。GhostWriterはAIによって強化された書き込みデザインプローブで、ユーザーは強化されたエージェンシーとパーソナライゼーションを実行できる。
GhostWriterを2つの異なる書き込みタスクで使用した18人の参加者を対象に、ユーザがパーソナライズされたテキスト世代の作成を支援し、システムの書き込みスタイルを制御する複数の方法を提供する。
論文 参考訳(メタデータ) (2024-02-13T23:48:59Z) - PerPLM: Personalized Fine-tuning of Pretrained Language Models via
Writer-specific Intermediate Learning and Prompts [16.59511985633798]
事前訓練言語モデル(PLM)はコンテキストをキャプチャするための強力なツールである。
PLMは通常、様々な作家の間で広く使われるように訓練され、微調整されている。
本研究では, PLMの微調整を具体化することで, テキスト理解タスクの精度を向上させることを目的とする。
論文 参考訳(メタデータ) (2023-09-14T14:03:48Z) - PEER: A Collaborative Language Model [70.11876901409906]
PEER(コラボレーティブ言語モデル)は,記述プロセス全体を模倣した言語モデルである。
PEERは、ドラフトの作成、提案の追加、編集の提案、アクションの説明を提供することができる。
PEERは様々な領域にまたがって高い性能を示し,編集作業を行う。
論文 参考訳(メタデータ) (2022-08-24T16:56:47Z) - CoAuthor: Designing a Human-AI Collaborative Writing Dataset for
Exploring Language Model Capabilities [92.79451009324268]
我々は,GPT-3の創造的かつ議論的な記述を支援する能力を明らかにするために設計されたデータセットであるCoAuthorを提案する。
我々は、CoAuthorがGPT-3の言語、アイデア、コラボレーション機能に関する問題に対処できることを実証した。
インタラクション設計に関して,この作業がLMの約束や落とし穴に関して,より原則化された議論を促進する可能性について論じる。
論文 参考訳(メタデータ) (2022-01-18T07:51:57Z) - Machine-in-the-Loop Rewriting for Creative Image Captioning [5.544401446569243]
テキストに記述的および図形的要素を局所的に導入するために,ユーザのオリジナルドラフト内で指定されたテキスト幅を変更する書き換えモデルを訓練する。
我々は,創造的なイメージキャプションのタスクにおいて,人間と協調する能力をモデルとして評価する。
論文 参考訳(メタデータ) (2021-11-07T22:17:41Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Enabling Language Models to Fill in the Blanks [81.59381915581892]
文書中の任意の位置にあるテキストの欠落を予測するタスクである,テキストを埋め込むためのシンプルなアプローチを提案する。
我々は、人工的にマスキングされたテキストと隠蔽されたテキストの連結を含むシーケンスに基づいて、オフザシェルフ言語モデル(またはファインチューン)を訓練する。
言語モデリングにより,この手法により,3つの分野(短編,科学的な要約,歌詞)において,LMが文全体を効果的に埋め込むことができることを示す。
論文 参考訳(メタデータ) (2020-05-11T18:00:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。