論文の概要: Prompting a Large Language Model to Generate Diverse Motivational
Messages: A Comparison with Human-Written Messages
- arxiv url: http://arxiv.org/abs/2308.13479v1
- Date: Fri, 25 Aug 2023 16:35:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:10:15.835488
- Title: Prompting a Large Language Model to Generate Diverse Motivational
Messages: A Comparison with Human-Written Messages
- Title(参考訳): 多様なモチベーションメッセージを生成するための大規模言語モデルの提案:人文メッセージとの比較
- Authors: Samuel Rhys Cox, Ashraf Abdul and Wei Tsang Ooi
- Abstract要約: 大規模言語モデル(LLM)は、ますます有能で普及しており、クリエイティブなコンテンツを作成するために使用することができる。
以前のクラウドソーシングパイプラインを使用して、さまざまなモチベーションメッセージのコーパスを生成するのに役立ちました。
次に,GPT-4を用いて同じパイプラインを用いてメッセージを生成し,(1)クラウドライター,(2)GPT-4を用いたパイプライン,(3)GPT-4プロンプトの2つのベースラインのGPT-4プロンプトからメッセージの集合的多様性を比較した。
クラウドソーシングパイプラインを用いたLCMプロンプトにより,GPT-4は2つのベースラインプロンプトよりも多様なメッセージを生成することがわかった。
- 参考スコア(独自算出の注目度): 5.1075208868359265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly capable and prevalent, and can
be used to produce creative content. The quality of content is influenced by
the prompt used, with more specific prompts that incorporate examples generally
producing better results. On from this, it could be seen that using
instructions written for crowdsourcing tasks (that are specific and include
examples to guide workers) could prove effective LLM prompts. To explore this,
we used a previous crowdsourcing pipeline that gave examples to people to help
them generate a collectively diverse corpus of motivational messages. We then
used this same pipeline to generate messages using GPT-4, and compared the
collective diversity of messages from: (1) crowd-writers, (2) GPT-4 using the
pipeline, and (3 & 4) two baseline GPT-4 prompts. We found that the LLM prompts
using the crowdsourcing pipeline caused GPT-4 to produce more diverse messages
than the two baseline prompts. We also discuss implications from messages
generated by both human writers and LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)はますます有能で普及しており、クリエイティブなコンテンツを作るのに使うことができる。
コンテンツの品質は、使用されるプロンプトの影響を受けており、例を含むより具体的なプロンプトは、一般的により良い結果をもたらす。
このことから、クラウドソーシングタスク(特に労働者をガイドする例を含む)のために書かれた指示を使用することで、効果的なLCMプロンプトが証明できることがわかる。
これを探るため、私たちは以前のクラウドソーシングパイプラインを使用して、さまざまなモチベーションメッセージのコーパスを生成するのに役立ちました。
次に,GPT-4を用いて同じパイプラインを用いてメッセージを生成し,(1)クラウドライター,(2)GPT-4を用いたパイプライン,3)GPT-4プロンプトの2つのベースラインからメッセージの集合的多様性を比較した。
クラウドソーシングパイプラインを用いたLCMプロンプトにより,GPT-4は2つのベースラインプロンプトよりも多様なメッセージを生成することがわかった。
また、人間作家とllmの両方が生成するメッセージの意味についても論じる。
関連論文リスト
- Supervisory Prompt Training [2.0431551512846244]
我々は,SPT(Supervisory Prompt Training)という新しいアプローチを提案する。
SPTは、LLM(Large Language Models)システムを使用して、非常に効果的なプロンプトを生成する。
本システムでは,1つのLCM,ジェネレータがタスクを実行し,もう1つのリフレクタがフィードバックを提供し,改良されたプロンプトを生成する。
論文 参考訳(メタデータ) (2024-03-26T19:08:20Z) - BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation [60.77990074569754]
本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
論文 参考訳(メタデータ) (2023-10-25T23:32:12Z) - AskIt: Unified Programming Interface for Programming with Large Language
Models [0.0]
大規模言語モデル(LLM)は創発能力として知られるユニークな現象を示し、多くのタスクにまたがって適応性を示す。
本稿では,LLM用に特別に設計されたドメイン固有言語であるAskItを紹介する。
50タスクにわたって、AskItは簡潔なプロンプトを生成し、ベンチマークよりも16.14パーセントのプロンプト長の削減を実現した。
論文 参考訳(メタデータ) (2023-08-29T21:44:27Z) - ExpertPrompting: Instructing Large Language Models to be Distinguished
Experts [93.58012324415762]
ExpertPromptingは、著名な専門家として答えるために、大きな言語モデルの可能性を秘めている。
我々はGPT-3.5を使って新しい命令追跡データを作成し、ExpertLLaMAと呼ばれる競合するオープンソースのチャットアシスタントを訓練する。
論文 参考訳(メタデータ) (2023-05-24T03:51:31Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Visual Instruction Tuning [79.70923292053097]
本稿では,言語のみの GPT-4 を用いてマルチモーダルな言語イメージ命令追跡データを生成する試みについて紹介する。
このようなデータに対して,LLaVA: Large Language and Vision Assistantを導入する。
科学QAを微調整すると、LLaVAとGPT-4の相乗効果は92.53%の新しい最先端精度を達成する。
論文 参考訳(メタデータ) (2023-04-17T17:59:25Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - Understanding the Effectiveness of Very Large Language Models on Dialog
Evaluation [20.18656308749408]
大規模言語モデル (LLM) は生成に使われており、人間のようなテキストを出力することができる。
本稿では,プロンプト中のサンプル数と使用するサンプル選択の種類がモデルの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2023-01-27T22:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。