論文の概要: Prompting a Large Language Model to Generate Diverse Motivational
Messages: A Comparison with Human-Written Messages
- arxiv url: http://arxiv.org/abs/2308.13479v1
- Date: Fri, 25 Aug 2023 16:35:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 13:10:15.835488
- Title: Prompting a Large Language Model to Generate Diverse Motivational
Messages: A Comparison with Human-Written Messages
- Title(参考訳): 多様なモチベーションメッセージを生成するための大規模言語モデルの提案:人文メッセージとの比較
- Authors: Samuel Rhys Cox, Ashraf Abdul and Wei Tsang Ooi
- Abstract要約: 大規模言語モデル(LLM)は、ますます有能で普及しており、クリエイティブなコンテンツを作成するために使用することができる。
以前のクラウドソーシングパイプラインを使用して、さまざまなモチベーションメッセージのコーパスを生成するのに役立ちました。
次に,GPT-4を用いて同じパイプラインを用いてメッセージを生成し,(1)クラウドライター,(2)GPT-4を用いたパイプライン,(3)GPT-4プロンプトの2つのベースラインのGPT-4プロンプトからメッセージの集合的多様性を比較した。
クラウドソーシングパイプラインを用いたLCMプロンプトにより,GPT-4は2つのベースラインプロンプトよりも多様なメッセージを生成することがわかった。
- 参考スコア(独自算出の注目度): 5.1075208868359265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly capable and prevalent, and can
be used to produce creative content. The quality of content is influenced by
the prompt used, with more specific prompts that incorporate examples generally
producing better results. On from this, it could be seen that using
instructions written for crowdsourcing tasks (that are specific and include
examples to guide workers) could prove effective LLM prompts. To explore this,
we used a previous crowdsourcing pipeline that gave examples to people to help
them generate a collectively diverse corpus of motivational messages. We then
used this same pipeline to generate messages using GPT-4, and compared the
collective diversity of messages from: (1) crowd-writers, (2) GPT-4 using the
pipeline, and (3 & 4) two baseline GPT-4 prompts. We found that the LLM prompts
using the crowdsourcing pipeline caused GPT-4 to produce more diverse messages
than the two baseline prompts. We also discuss implications from messages
generated by both human writers and LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)はますます有能で普及しており、クリエイティブなコンテンツを作るのに使うことができる。
コンテンツの品質は、使用されるプロンプトの影響を受けており、例を含むより具体的なプロンプトは、一般的により良い結果をもたらす。
このことから、クラウドソーシングタスク(特に労働者をガイドする例を含む)のために書かれた指示を使用することで、効果的なLCMプロンプトが証明できることがわかる。
これを探るため、私たちは以前のクラウドソーシングパイプラインを使用して、さまざまなモチベーションメッセージのコーパスを生成するのに役立ちました。
次に,GPT-4を用いて同じパイプラインを用いてメッセージを生成し,(1)クラウドライター,(2)GPT-4を用いたパイプライン,3)GPT-4プロンプトの2つのベースラインからメッセージの集合的多様性を比較した。
クラウドソーシングパイプラインを用いたLCMプロンプトにより,GPT-4は2つのベースラインプロンプトよりも多様なメッセージを生成することがわかった。
また、人間作家とllmの両方が生成するメッセージの意味についても論じる。
関連論文リスト
- Conversational Prompt Engineering [14.614531952444013]
ユーザが特定のタスクに対してパーソナライズされたプロンプトを作成するのを支援する,ユーザフレンドリーなツールであるConversational Prompt Engineering (CPE)を提案する。
CPEはチャットモデルを使ってユーザと短時間の対話を行い、アウトプットの好みを明確にし、それらをプロンプトに統合する。
要約タスクのユーザスタディは、パーソナライズされたハイパフォーマンスなプロンプトを作成する際のCPEの価値を示す。
論文 参考訳(メタデータ) (2024-08-08T16:18:39Z) - Context Conquers Parameters: Outperforming Proprietary LLM in Commit Message Generation [4.400274233826898]
オープンソースのLarge Language Modelsは、OMGが生成したものに匹敵するコミットメッセージを生成することができる。
4ビット量子化8BオープンソースLLMを用いたCMG手法であるlOcal MessagE GenerAtorを提案する。
論文 参考訳(メタデータ) (2024-08-05T14:26:41Z) - Reinforced Prompt Personalization for Recommendation with Large Language Models [24.360796133889156]
本稿では,個々のユーザに対して個別のプロンプトをパーソナライズするインスタンスワイドプロンプトの概念を紹介する。
マルチエージェント強化学習(MARL)を用いたプロンプトにおける4つのパターンを最適化するための強化プロンプトパーソナライゼーション(RPP)を提案する。
従来のレコメンデータモデルよりもRCP/RPP+の方が優れていることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-07-24T09:24:49Z) - Can GPT-4 learn to analyse moves in research article abstracts? [0.9999629695552195]
我々は、自然言語のプロンプトを用いてアノテーションプロセスを自動化するため、GPT-4の余裕を生かしている。
8ショットのプロンプトは2つを用いた場合よりも有効であり、可変性の領域を示す例を含めることで、単一の文で複数の動きを認識できるGPT-4の能力を高めることが確認された。
論文 参考訳(メタデータ) (2024-07-22T13:14:27Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Show, Don't Tell: Aligning Language Models with Demonstrated Feedback [54.10302745921713]
Demonstration ITerated Task Optimization (DITTO)は、言語モデルの出力とユーザの実証された振る舞いを直接調整する。
我々は,DITTOがニュース記事やメール,ブログ記事などのドメイン間できめ細かいスタイルやタスクアライメントを学習する能力を評価する。
論文 参考訳(メタデータ) (2024-06-02T23:13:56Z) - ExpertPrompting: Instructing Large Language Models to be Distinguished
Experts [93.58012324415762]
ExpertPromptingは、著名な専門家として答えるために、大きな言語モデルの可能性を秘めている。
我々はGPT-3.5を使って新しい命令追跡データを作成し、ExpertLLaMAと呼ばれる競合するオープンソースのチャットアシスタントを訓練する。
論文 参考訳(メタデータ) (2023-05-24T03:51:31Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。