論文の概要: Better Question-Answering Models on a Budget
- arxiv url: http://arxiv.org/abs/2304.12370v1
- Date: Mon, 24 Apr 2023 18:06:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 23:05:12.868559
- Title: Better Question-Answering Models on a Budget
- Title(参考訳): 予算上のより良い質問応答モデル
- Authors: Yudhanjaya Wijeratne, Ishan Marikar
- Abstract要約: 我々は、Stanford Alpacaデータセットを使用して、FacebookのOPT 1.3B、2.7B、6.7Bモデルの能力を大幅に改善したLoRAモデルのファミリーであるEluwaを紹介する。
ここでは、より小さなモデルを3倍のサイズのモデルとして微調整できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-rank adaptation (LoRA) and question-answer datasets from large language
models have made it much easier for much smaller models to be finetuned to the
point where they display sophisticated conversational abilities. In this paper,
we present Eluwa, a family of LoRA models that use the Stanford Alpaca dataset
and massively improve the capabilities of Facebook's OPT 1.3B, 2.7B and 6.7B
models. We benchmark these models in multiple ways, including letting GPT-4
judge their answers to prompts that span general knowledge, writing,
programming and other tasks. We show that smaller models here can be fine-tuned
to be as performant as models 3x larger - all for as little as 40 USD in
compute.
- Abstract(参考訳): 低ランク適応(LoRA)と大規模言語モデルからの質問応答データセットにより、より小さなモデルの方がより洗練された会話能力を示すように微調整が容易になった。
本稿では、Stanford Alpacaデータセットを使用して、FacebookのOPT 1.3B、2.7B、6.7Bモデルの能力を大幅に改善したLoRAモデルのファミリーであるEluwaを紹介する。
我々はこれらのモデルを複数の方法でベンチマークし、GPT-4は一般的な知識、書き方、プログラミング、その他のタスクにまたがる解答を判断する。
ここで、より小さいモデルは3倍大きなモデルと同じパフォーマンスに微調整可能であることを示しています。
関連論文リスト
- SuperCorrect: Supervising and Correcting Language Models with Error-Driven Insights [89.56181323849512]
より小規模な学生モデルの推論と反映の両方を教師モデルを用いて監督し,修正するフレームワークであるSuperCorrectを提案する。
第1段階では、教師モデルから階層的な高レベルかつ詳細な思考テンプレートを抽出し、よりきめ細かい推論思考を導き出す学生モデルを指導する。
第2段階では、学生モデルの自己補正能力を高めるために、クロスモデル協調直接選好最適化(DPO)を導入する。
論文 参考訳(メタデータ) (2024-10-11T17:25:52Z) - What Matters for Model Merging at Scale? [94.26607564817786]
モデルマージは、複数の専門家モデルとより有能な単一モデルを組み合わせることを目的としている。
これまでの研究は主に、いくつかの小さなモデルをマージすることに焦点を当ててきた。
本研究は,大規模モデルマージの有用性を体系的に評価する。
論文 参考訳(メタデータ) (2024-10-04T17:17:19Z) - A Teacher Is Worth A Million Instructions [4.322454918650575]
提案手法を用いた微調整Mistral 7Bと2x7Bは、7Bおよび13B以上のパラメータを持つ最先端言語モデルの性能を上回る。
論文 参考訳(メタデータ) (2024-06-27T11:48:25Z) - Large Language Model Pruning [0.0]
LLMに特化したモデルプルーニング手法を提案する。
提案手法は深層学習モデルの説明可能性を強調する。
また、大規模モデルにおけるプルーニングと小規模モデルにおけるプルーニングの違いについても検討する。
論文 参考訳(メタデータ) (2024-05-24T18:22:15Z) - Replacing Judges with Juries: Evaluating LLM Generations with a Panel of Diverse Models [56.02275285521847]
LLm評価器のパネル(PoLL)を用いた評価モデルを提案する。
より多数の小さなモデルで構成されたPoLLは,1つの大判定器より優れ,不整合モデルファミリーの構成によるモデル内バイアスが小さく,しかも7倍以上のコストがかかる。
論文 参考訳(メタデータ) (2024-04-29T15:33:23Z) - When Do We Not Need Larger Vision Models? [55.957626371697785]
視覚モデルのサイズを拡大することが、より強力な視覚表現を得るためのデファクトスタンダードとなっている。
S$2のScaling on Scales(スケーリング・オン・スケール)のパワーを実演します。
1行のコードで任意のビジョンモデルにS$2$を適用可能なPythonパッケージをリリースします。
論文 参考訳(メタデータ) (2024-03-19T17:58:39Z) - TinyGSM: achieving >80% on GSM8k with small language models [49.21136294791747]
小型モデルは様々な計算上の利点を提供するが、どの程度の大きさが問題解決能力にとって重要なのかは未解決のままである。
特に小学校の数学を解くために、GSM8Kベンチマークの80%の障壁を破るために必要なモデルサイズは、まだ34Bである。
我々の研究は、数学的な推論を得るための小さな言語モデルにとって、高品質なデータセットがどのように鍵となるかを研究する。
論文 参考訳(メタデータ) (2023-12-14T18:58:28Z) - Herd: Using multiple, smaller LLMs to match the performances of proprietary, large LLMs via an intelligent composer [1.3108652488669732]
オープンソースモデルの群れは、インテリジェントルータを介して、プロプライエタリなモデルのパフォーマンスに適合または超えることができることを示す。
GPTがクエリに答えられない場合、Herdは少なくとも40%の確率でモデルを特定できる。
論文 参考訳(メタデータ) (2023-10-30T18:11:02Z) - Specializing Smaller Language Models towards Multi-Step Reasoning [56.78474185485288]
GPT-3.5 (ge$ 175B) から T5 変種 (le$ 11B) までを蒸留できることを示す。
対象タスクに対するモデルの能力を専門化するモデル特殊化を提案する。
論文 参考訳(メタデータ) (2023-01-30T08:51:19Z) - Large Language Models Are Reasoning Teachers [9.290757451344673]
ファインチューンCoTは、非常に大きな教師モデルからより小さなモデルへの推論サンプルを生成する方法である。
また,Fin-Tune-CoTは,多くのタスクにおいて,プロンプトベースベースラインや教師モデルよりもはるかに優れた小型モデルにおいて,相当な推論能力を実現する。
論文 参考訳(メタデータ) (2022-12-20T08:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。