論文の概要: RefuteBench: Evaluating Refuting Instruction-Following for Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.13463v2
- Date: Thu, 22 Feb 2024 06:17:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 11:41:54.336389
- Title: RefuteBench: Evaluating Refuting Instruction-Following for Large
Language Models
- Title(参考訳): RefuteBench: 大規模言語モデルに対するRefuting命令フォローの評価
- Authors: Jianhao Yan, Yun Luo, Yue Zhang
- Abstract要約: 本稿では,質問応答,機械翻訳,電子メール作成などのタスクをカバーするベンチマークRefuteBenchを提案する。
評価の目的は、モデルが反響命令の形で肯定的にフィードバックを受けられるか、会話を通してユーザー要求に一貫して従えられるかを評価することである。
- 参考スコア(独自算出の注目度): 19.985647101348775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application scope of large language models (LLMs) is increasingly
expanding. In practical use, users might provide feedback based on the model's
output, hoping for a responsive model that can complete responses according to
their feedback. Whether the model can appropriately respond to users' refuting
feedback and consistently follow through with execution has not been thoroughly
analyzed. In light of this, this paper proposes a comprehensive benchmark,
RefuteBench, covering tasks such as question answering, machine translation,
and email writing. The evaluation aims to assess whether models can positively
accept feedback in form of refuting instructions and whether they can
consistently adhere to user demands throughout the conversation. We conduct
evaluations on numerous LLMs and find that LLMs are stubborn, i.e. exhibit
inclination to their internal knowledge, often failing to comply with user
feedback. Additionally, as the length of the conversation increases, models
gradually forget the user's stated feedback and roll back to their own
responses. We further propose a recall-and-repeat prompts as a simple and
effective way to enhance the model's responsiveness to feedback.
- Abstract(参考訳): 大規模言語モデル(LLM)の適用範囲はますます拡大している。
実際に使う場合、ユーザーはモデルの出力に基づいてフィードバックを提供し、フィードバックに応じてレスポンスを完了できるレスポンシブモデルを求めている。
モデルがユーザの否定的なフィードバックに適切に応答し、実行に一貫して追従できるかどうかは、完全には分析されていない。
そこで本稿では,質問応答,機械翻訳,電子メール書き込みなどのタスクをカバーする,包括的なベンチマークであるrefutebenchを提案する。
評価の目的は、モデルが反響命令の形で肯定的にフィードバックを受けられるか、会話を通してユーザー要求に一貫して従えられるかを評価することである。
我々は多数のllmの評価を行い、llmが頑固であること、すなわち内部知識への傾きを示し、しばしばユーザーからのフィードバックに従わないことを発見した。
さらに、会話の長さが増加するにつれて、モデルがユーザの指定したフィードバックを徐々に忘れ、自身の応答にロールバックする。
さらに,モデルのフィードバック応答性を高めるためのシンプルかつ効果的な方法として,リコール・アンド・リピートプロンプトを提案する。
関連論文リスト
- Self-Refinement of Language Models from External Proxy Metrics Feedback [27.57840561708484]
ProMiSe(Proxy Metric-based Self-Refinement)
ProMiSeは、その応答を一度に1つの原則を反復的に洗練する。
オープンソース言語モデルFlan-T5-XXLとLlama-2-13B-ChatにProMiSeを適用する。
論文 参考訳(メタデータ) (2024-02-27T19:13:01Z) - RLVF: Learning from Verbal Feedback without Overgeneralization [94.19501420241188]
本稿では,このような過度な一般化を伴わずに,言語フィードバックを取り入れることの課題について検討する。
制約付き選好最適化(C3PO)を用いた新しい文脈的批評手法を開発した。
提案手法は,他の文脈に対する既存行動を維持しながら,関連するシナリオに対して効果的な言語フィードバックを適用する。
論文 参考訳(メタデータ) (2024-02-16T18:50:24Z) - Pachinko: Patching Interpretable QA Models through Natural Language
Feedback [58.42753581189251]
我々は,QAモデルが生成した有理性の効果を分析し,その答えを支持する。
これらの有理性の様々な形式を、関心の明確な性質によって異なるものとみなす。
評定に影響を及ぼすことに加えて、一部のフォーマットは、ユーザーが報告したモデル出力の理解と信頼を著しく向上させる。
論文 参考訳(メタデータ) (2023-11-16T04:26:32Z) - EvalLM: Interactive Evaluation of Large Language Model Prompts on
User-Defined Criteria [43.944632774725484]
本稿では,ユーザ定義基準に基づいて複数の出力を評価することで,プロンプトを反復的に精錬するインタラクティブシステムであるEvalLMを提案する。
自然言語の基準を記述することで、ユーザはシステムのLCMベースの評価器を使って、どのプロンプトがエキサイティングか、失敗かを概観することができる。
比較研究では、EvalLMは手動による評価と比較して、参加者がより多様な基準を策定し、アウトプットの2倍を検査し、59%のリビジョンで満足なプロンプトに達するのに役立った。
論文 参考訳(メタデータ) (2023-09-24T13:19:38Z) - Learning from Negative User Feedback and Measuring Responsiveness for
Sequential Recommenders [13.762960304406016]
シーケンシャルレコメンデータのトレーニング目標に、明示的かつ暗黙的なネガティブなユーザフィードバックを導入する。
大規模産業レコメンデーションシステムを用いた実演実験により,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-08-23T17:16:07Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z) - Continually Improving Extractive QA via Human Feedback [59.49549491725224]
本研究では,人間のフィードバックによる抽出質問応答(QA)システムの改善を継続的に進める。
多様な設定の下で何千ものユーザインタラクションを含む実験を行い、時間とともにフィードバックからの学習の理解を広げます。
論文 参考訳(メタデータ) (2023-05-21T14:35:32Z) - When Life Gives You Lemons, Make Cherryade: Converting Feedback from Bad
Responses into Good Labels [34.6235464256814]
Juicerは、バイナリとフリーフォームの両方の人間のフィードバックを利用するためのフレームワークである。
モデル修正応答による強化訓練が最終対話モデルを改善することが判明した。
論文 参考訳(メタデータ) (2022-10-28T04:57:21Z) - Simulating Bandit Learning from User Feedback for Extractive Question
Answering [51.97943858898579]
教師付きデータを用いたフィードバックのシミュレーションにより,ユーザフィードバックからの学習を抽出的質問応答に適用する。
当初は少数の例でトレーニングしたシステムが,モデル予測された回答に対するユーザからのフィードバックを劇的に改善できることが示される。
論文 参考訳(メタデータ) (2022-03-18T17:47:58Z) - Automating App Review Response Generation [67.58267006314415]
本稿では,レビューと回答の知識関係を学習することで,レビュー応答を自動的に生成する新しいアプローチRRGenを提案する。
58のアプリと309,246のレビュー-レスポンスペアの実験では、RRGenはBLEU-4の点で少なくとも67.4%のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-02-10T05:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。