論文の概要: Memory-assisted prompt editing to improve GPT-3 after deployment
- arxiv url: http://arxiv.org/abs/2201.06009v1
- Date: Sun, 16 Jan 2022 10:11:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-01-19 15:02:20.504958
- Title: Memory-assisted prompt editing to improve GPT-3 after deployment
- Title(参考訳): メモリ支援プロンプト編集によるデプロイ後のGPT-3の改善
- Authors: Aman Madaan, Niket Tandon, Peter Clark, Yiming Yang
- Abstract要約: シミュレーションされた)ユーザが、デプロイされたGPT-3を対話的に教える方法を示し、その精度を基本的な語彙タスクで2倍にする。
私たちのシンプルなアイデアは、デプロイされたモデルを強化するための第一歩です。
- 参考スコア(独自算出の注目度): 55.62352349324132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large LMs such as GPT-3, while powerful, are not immune to mistakes, but are
prohibitively costly to retrain. One failure mode is misinterpreting a user's
instruction (e.g., GPT-3 interpreting "What word is similar to good?" to mean a
homonym, while the user intended a synonym). Our goal is to allow users to
correct such errors directly through interaction -- without retraining. Our
approach pairs GPT-3 with a growing memory of cases where the model
misunderstood the user's intent and was provided with feedback, clarifying the
instruction. Given a new query, our memory-enhanced GPT-3 uses feedback from
similar, prior queries to enrich the prompt. Through simple proof-of-concept
experiments, we show how a (simulated) user can interactively teach a deployed
GPT-3, doubling its accuracy on basic lexical tasks (e.g., generate a synonym)
where users query in different, novel (often misunderstood) ways. In such
scenarios, memory helps avoid repeating similar past mistakes. Our simple idea
is a first step towards strengthening deployed models, potentially broadening
their utility. All the code and data is available at
https://github.com/madaan/memprompt.
- Abstract(参考訳): GPT-3のような大型のLMは、強いがミスには免疫がなく、再訓練には著しくコストがかかる。
障害モードの1つは、ユーザの指示を誤解することである(例えば、gpt-3 は "what word is similar to good?" を同義語として解釈するが、ユーザは同義語を意図している)。
私たちの目標は、ユーザがそのようなエラーをリトレーニングすることなく、インタラクションを通じて直接修正できるようにすることです。
提案手法は,モデルがユーザの意図を誤解し,フィードバックを提供し,指示を明確にするケースの記憶とgpt-3を組み合わせる。
新しいクエリが与えられた場合、メモリ強化GPT-3は、同じような以前のクエリからのフィードバックを使ってプロンプトを強化します。
単純な概念実証実験を通じて、(シミュレーションされた)ユーザがデプロイされたgpt-3を対話的に教える方法を示し、ユーザが異なる新しい(しばしば誤解される)方法でクエリする基本的な語彙的タスク(例えば同義語を生成する)の精度を2倍にする。
このようなシナリオでは、メモリは同様の過去のミスを繰り返すのを避けるのに役立つ。
私たちのシンプルなアイデアは、デプロイされたモデルを強化するための第一歩です。
すべてのコードとデータはhttps://github.com/madaan/mempromptで入手できる。
関連論文リスト
- RLVF: Learning from Verbal Feedback without Overgeneralization [94.19501420241188]
本稿では,このような過度な一般化を伴わずに,言語フィードバックを取り入れることの課題について検討する。
制約付き選好最適化(C3PO)を用いた新しい文脈的批評手法を開発した。
提案手法は,他の文脈に対する既存行動を維持しながら,関連するシナリオに対して効果的な言語フィードバックを適用する。
論文 参考訳(メタデータ) (2024-02-16T18:50:24Z) - Reliability Check: An Analysis of GPT-3's Response to Sensitive Topics
and Prompt Wording [0.0]
GPT-3を混乱させるものは何か、モデルが特定のセンシティブなトピックにどう反応するか、そしてモデル応答にどのような影響があるのかを解析する。
GPT-3は明らかな陰謀やステレオタイプと正しく一致しないが、一般的な誤解や論争では誤りを犯す。
モデル応答はプロンプトや設定に不整合であり、GPT-3の信頼性の欠如を強調している。
論文 参考訳(メタデータ) (2023-06-09T19:07:31Z) - SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for
Generative Large Language Models [55.60306377044225]
「SelfCheckGPT」は、ブラックボックスモデルの応答をファクトチェックする単純なサンプリングベースアプローチである。
本稿では,GPT-3を用いてWikiBioデータセットから個人に関するパスを生成する手法について検討する。
論文 参考訳(メタデータ) (2023-03-15T19:31:21Z) - Optimizing Prompts for Text-to-Image Generation [97.61295501273288]
よく設計されたプロンプトは、テキストから画像へのモデルをガイドし、素晴らしい画像を生成する。
しかし、パフォーマンスプロンプトはモデル固有であり、ユーザ入力と不一致であることが多い。
本稿では,モデル優先のプロンプトにオリジナルのユーザ入力を自動的に適応するフレームワークであるpromise adaptを提案する。
論文 参考訳(メタデータ) (2022-12-19T16:50:41Z) - Ignore Previous Prompt: Attack Techniques For Language Models [0.0]
PromptInjectは,マスクに基づく対角的プロンプト合成のためのフレームワークである。
実運用において最も広くデプロイされている言語モデルであるGPT-3は、手書き入力で容易にミスアライメント可能であることを示す。
論文 参考訳(メタデータ) (2022-11-17T13:43:20Z) - Towards Teachable Reasoning Systems [29.59387051046722]
質問応答のための授業可能な推論システム(QA)を開発した。
私たちのアプローチは3つあります。 まず、生成された推論の連鎖は、システムの内部の信念によってどのように答えが示唆されるかを示しています。
第二に、ユーザーは説明と対話して誤ったモデル信念を特定し、修正を行うことができる。
第3に、そのような補正の動的なメモリでモデルを増強する。
論文 参考訳(メタデータ) (2022-04-27T17:15:07Z) - Few-Shot Semantic Parsing with Language Models Trained On Code [52.23355024995237]
Codexは同等のGPT-3モデルよりもセマンティックパーシングが優れていることがわかった。
GPT-3とは異なり、Codexは意味表現を直接ターゲットとする場合、おそらく意味解析で使われる意味表現がコードと似た構造になっているように、同じように機能する。
論文 参考訳(メタデータ) (2021-12-16T08:34:06Z) - Improving scripts with a memory of natural feedback [38.81097942561449]
出力中のエラーに関するフィードバックが増大する動的メモリアーキテクチャを作成します。
スクリプト生成タスクでは、モデルがフィードバックを効果的に適用することを経験的に示す。
これは、デプロイされたモデルを強化するための第一歩であり、ユーティリティを拡大する可能性がある。
論文 参考訳(メタデータ) (2021-12-16T07:01:28Z) - Language Models are Few-Shot Learners [61.36677350504291]
言語モデルのスケールアップにより、タスクに依存しない、少数ショットのパフォーマンスが大幅に向上することを示す。
我々は、1750億のパラメータを持つ自動回帰言語モデルであるGPT-3を訓練し、その性能を数ショットでテストする。
GPT-3は、翻訳、質問応答、クローズタスクを含む多くのNLPデータセットで高いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-05-28T17:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。