論文の概要: ExpertPrompting: Instructing Large Language Models to be Distinguished
Experts
- arxiv url: http://arxiv.org/abs/2305.14688v1
- Date: Wed, 24 May 2023 03:51:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 20:11:48.359128
- Title: ExpertPrompting: Instructing Large Language Models to be Distinguished
Experts
- Title(参考訳): expertprompting: 大きな言語モデルに優れた専門家になるよう指示する
- Authors: Benfeng Xu, An Yang, Junyang Lin, Quan Wang, Chang Zhou, Yongdong
Zhang, Zhendong Mao
- Abstract要約: ExpertPromptingは、著名な専門家として答えるために、大きな言語モデルの可能性を秘めている。
我々はGPT-3.5を使って新しい命令追跡データを作成し、ExpertLLaMAと呼ばれる競合するオープンソースのチャットアシスタントを訓練する。
- 参考スコア(独自算出の注目度): 93.58012324415762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The answering quality of an aligned large language model (LLM) can be
drastically improved if treated with proper crafting of prompts. In this paper,
we propose ExpertPrompting to elicit the potential of LLMs to answer as
distinguished experts. We first utilize In-Context Learning to automatically
synthesize detailed and customized descriptions of the expert identity for each
specific instruction, and then ask LLMs to provide answer conditioned on such
agent background. Based on this augmented prompting strategy, we produce a new
set of instruction-following data using GPT-3.5, and train a competitive
open-source chat assistant called ExpertLLaMA. We employ GPT4-based evaluation
to show that 1) the expert data is of significantly higher quality than vanilla
answers, and 2) ExpertLLaMA outperforms existing open-source opponents and
achieves 96\% of the original ChatGPT's capability. All data and the
ExpertLLaMA model will be made publicly available at
\url{https://github.com/OFA-Sys/ExpertLLaMA}.
- Abstract(参考訳): プロンプトの適切な工法で処理すれば、一致した大言語モデル(LLM)の応答品質が劇的に向上する。
本稿では,LLMの潜在能力を活かし,優れた専門家として回答するためのエキスパートプロンプトを提案する。
まず、インコンテキスト学習を用いて、特定の命令ごとに専門家のアイデンティティの詳細な記述とカスタマイズを自動的に合成し、その背景にある答えをLLMに尋ねる。
この拡張プロンプト戦略に基づいて,GPT-3.5を用いた新しい命令追跡データを作成し,オープンソースのチャットアシスタントであるExpertLLaMAを訓練する。
gpt4ベースの評価を用いて
1) 専門家データはバニラ回答よりも格段に高品質で,
2) expertllamaは、既存のオープンソースの相手を上回り、元のchatgptの能力の96\%を達成する。
すべてのデータとExpertLLaMAモデルは、 \url{https://github.com/OFA-Sys/ExpertLLaMA}で公開される。
関連論文リスト
- DeepThink: Aligning Language Models with Domain-Specific User Intents [25.503609067258278]
本研究では、高品質な命令を生成するためのDeepThinkと呼ばれる新しいフレームワークを提案する。
DeepThinkはまず、いくつかのシード質問を生成して、実際のユーザ質問を模倣し、会話をシミュレートして、隠されたユーザニーズを明らかにし、会話のコンテキストによって回答を洗練する。
実験により、DeepThinkは広告ドメイン内の実際のユーザテストセット上でのGPT-4-turbo+RAGベースのアシスタントと比較して平均パフォーマンスが7.92%向上していることが示された。
論文 参考訳(メタデータ) (2025-02-08T09:04:16Z) - SteLLA: A Structured Grading System Using LLMs with RAG [2.630522349105014]
本稿では,SteLLA (Structured Grading System Using LLMs with RAG) について述べる。
受験生の回答を含む実世界のデータセットを大学レベルの生物学コースから収集した。
実験により,本システムでは,人間の学級との相当な合意を達成でき,また,その問題で検討されたすべての知識点について,ブレークダウングレードとフィードバックを提供することができた。
論文 参考訳(メタデータ) (2025-01-15T19:24:48Z) - Boosting Code-Switching ASR with Mixture of Experts Enhanced Speech-Conditioned LLM [1.3089936156875277]
我々は,Mixture of Experts (MoE) ベースのコネクタと統合された音声条件付き大規模言語モデル (LLM) を提案する。
音声認識タスクへのLLMのテキスト生成能力を向上するためのIDIT機構を提案する。
また、複数の言語を効率的に管理するMoEアーキテクチャとのコネクタも提示する。
論文 参考訳(メタデータ) (2024-09-24T09:20:22Z) - FOFO: A Benchmark to Evaluate LLMs' Format-Following Capability [70.84333325049123]
FoFoは、大規模言語モデル(LLM)の複雑なドメイン固有のフォーマットに従う能力を評価するための先駆的なベンチマークである。
本稿では,大規模言語モデル(LLM)の複雑なドメイン固有フォーマットに従う能力を評価するための先駆的ベンチマークであるFoFoを提案する。
論文 参考訳(メタデータ) (2024-02-28T19:23:27Z) - Prompt-Time Symbolic Knowledge Capture with Large Language Models [0.0]
ユーザ固有の知識で大きな言語モデル(LLM)を拡張することは、パーソナルAIアシスタントのような現実世界のアプリケーションにとって不可欠である。
本稿では,既存のLLM機能を活用して,迅速な知識獲得を実現する。
論文 参考訳(メタデータ) (2024-02-01T08:15:28Z) - PromptAgent: Strategic Planning with Language Models Enables
Expert-level Prompt Optimization [60.00631098364391]
PromptAgentは、エキスパートレベルのプロンプトを、専門家による手工芸品と同等の品質で作成する最適化手法である。
PromptAgentは人間のような試行錯誤の探索にインスパイアされ、専門家レベルの正確な洞察と詳細な指示を誘導する。
PromptAgentを3つの実践領域にまたがる12のタスクに適用する。
論文 参考訳(メタデータ) (2023-10-25T07:47:01Z) - Tuna: Instruction Tuning using Feedback from Large Language Models [74.04950416204551]
本稿では,新しいテキスト確率的ランキングとテキストコンテクスチュアルランキングを用いた命令調整型大規模言語モデルの微調整を提案する。
確率的ランク付けにより、教師のLCMから高品質で低品質なレスポンスの相対的なランク付けを継承することができる。
一方、文脈的ランキングを学習することで、より強いLLMの文脈的理解能力を用いて、モデルが独自の応答分布を洗練できる。
論文 参考訳(メタデータ) (2023-10-20T09:55:06Z) - Text-Augmented Open Knowledge Graph Completion via Pre-Trained Language
Models [53.09723678623779]
本稿では,高品質なクエリプロンプトを自動的に生成し,大規模テキストコーパスからサポート情報を取得するためのTAGREALを提案する。
その結果、TAGREALは2つのベンチマークデータセット上で最先端のパフォーマンスを達成することがわかった。
TAGREALは、限られたトレーニングデータであっても、既存の埋め込みベース、グラフベース、およびPLMベースの手法よりも優れた性能を有することが判明した。
論文 参考訳(メタデータ) (2023-05-24T22:09:35Z) - AnnoLLM: Making Large Language Models to Be Better Crowdsourced Annotators [98.11286353828525]
GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
本稿では,2段階のアプローチを取り入れたAnnoLLMを提案する。
我々はAnnoLLMを用いた対話型情報検索データセットを構築した。
論文 参考訳(メタデータ) (2023-03-29T17:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。