論文の概要: Maximizing Use-Case Specificity through Precision Model Tuning
- arxiv url: http://arxiv.org/abs/2212.14206v1
- Date: Thu, 29 Dec 2022 07:50:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 15:56:25.453240
- Title: Maximizing Use-Case Specificity through Precision Model Tuning
- Title(参考訳): 精密モデルチューニングによるユースケース特定性の最大化
- Authors: Pranjali Awasthi, David Recio-Mitter, Yosuke Kyle Sugi
- Abstract要約: バイオメディカル情報検索における4つのトランスフォーマーベース言語モデルの性能の詳細な分析を行う。
この結果から,10Bパラメータとドメイン固有のデータセットを微調整した小さなモデルでは,高い特定の質問に対して,より大きな言語モデルよりも優れる傾向が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models have become increasingly popular in recent years for tasks
like information retrieval. As use-cases become oriented toward specific
domains, fine-tuning becomes default for standard performance. To fine-tune
these models for specific tasks and datasets, it is necessary to carefully tune
the model's hyperparameters and training techniques. In this paper, we present
an in-depth analysis of the performance of four transformer-based language
models on the task of biomedical information retrieval. The models we consider
are DeepMind's RETRO (7B parameters), GPT-J (6B parameters), GPT-3 (175B
parameters), and BLOOM (176B parameters). We compare their performance on the
basis of relevance, accuracy, and interpretability, using a large corpus of
480000 research papers on protein structure/function prediction as our dataset.
Our findings suggest that smaller models, with <10B parameters and fine-tuned
on domain-specific datasets, tend to outperform larger language models on
highly specific questions in terms of accuracy, relevancy, and interpretability
by a significant margin (+50% on average). However, larger models do provide
generally better results on broader prompts.
- Abstract(参考訳): 近年,情報検索などのタスクで言語モデルが普及している。
ユースケースが特定のドメインに向けられるようになると、ファインチューニングは標準パフォーマンスのデフォルトになる。
これらのモデルを特定のタスクやデータセット向けに微調整するには、モデルのハイパーパラメータとトレーニングテクニックを慎重に調整する必要がある。
本稿では,バイオメディカル情報検索の課題に対して,トランスフォーマーを用いた4つの言語モデルの性能を詳細に解析する。
我々が検討しているモデルは、DeepMindのRETRO (7Bパラメータ)、GPT-J (6Bパラメータ)、GPT-3 (175Bパラメータ)、BLOOM (176Bパラメータ)である。
タンパク質構造・機能予測に関する480000論文からなる大規模コーパスをデータセットとして用い,妥当性,正確性,解釈性に基づいてそれらの性能を比較した。
その結果,<10Bパラメータとドメイン固有データセットを微調整した小さなモデルでは,精度,関連性,解釈可能性において,より大きな言語モデルよりも高い精度(平均50%以上)を達成できることがわかった。
しかし、より大きなモデルはより広いプロンプトに対して、概してより良い結果をもたらす。
関連論文リスト
- Explaining Datasets in Words: Statistical Models with Natural Language Parameters [66.69456696878842]
本稿では, クラスタリング, 時系列, 分類モデルなど, 自然言語の述語によってパラメータ化される統計モデル群を紹介する。
当社のフレームワークは、ユーザチャット対話の分類、時間の経過とともにどのように進化するかの特徴付け、一方の言語モデルが他方よりも優れているカテゴリを見つけることなど、幅広い問題に適用しています。
論文 参考訳(メタデータ) (2024-09-13T01:40:20Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Under the Hood of Tabular Data Generation Models: the Strong Impact of Hyperparameter Tuning [2.5168710814072894]
本研究では,モデル統合評価の実践的ニーズに対処する。
高速な最適化を実現するために,各モデルに対する探索空間の削減を提案する。
ほとんどのモデルでは、データセット固有の大規模チューニングによって、オリジナルの構成よりもパフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2024-06-18T07:27:38Z) - Large language models for aspect-based sentiment analysis [0.0]
GPT-4 と GPT-3.5 の性能をゼロショット, 少ないショット, 微調整で評価した。
微調整 GPT-3.5 は、共同アスペクト項抽出と極性分類タスクにおいて最先端の F1 スコア 83.8 を達成する。
論文 参考訳(メタデータ) (2023-10-27T10:03:21Z) - Fairer and More Accurate Tabular Models Through NAS [14.147928131445852]
本稿では,多目的ニューラルアーキテクチャサーチ (NAS) とハイパーパラメータ最適化 (HPO) を,表データの非常に困難な領域への最初の応用として提案する。
我々はNASで精度のみに最適化されたモデルが、本質的に公正な懸念に対処できないことをしばしば示している。
公平性、正確性、あるいは両方において、最先端のバイアス緩和手法を一貫して支配するアーキテクチャを作成します。
論文 参考訳(メタデータ) (2023-10-18T17:56:24Z) - Pruning Large Language Models via Accuracy Predictor [0.0]
数十億のパラメータ(あるいはそれ以上)を含む大規模言語モデル(LLM)は、様々なNLPタスクにおいて印象的な機能を示している。
まず,一定の数のアーキテクチャと精度のペアのトレーニングセットを構築し,非ニューラルネットワークモデルを精度予測器として訓練する。
論文 参考訳(メタデータ) (2023-09-18T06:38:24Z) - Text Alignment Is An Efficient Unified Model for Massive NLP Tasks [24.069447197357164]
次単語予測は、多くのNLPタスクの効率的な定式化ではないことが多い。
テキストアライメントは、幅広い重要なタスクに対して効率的な統一モデルとして提案する。
私たちのモデルは、より小さなモデルサイズで同等か、あるいはさらに優れたパフォーマンスを提供します。
論文 参考訳(メタデータ) (2023-07-06T02:28:31Z) - Scaling Instruction-Finetuned Language Models [126.4789306516927]
命令として表現されたデータセットの集合上での言語モデルの微調整は、モデル性能を改善することが示されている。
命令の微調整により,様々なモデルクラスの性能が劇的に向上することがわかった。
論文 参考訳(メタデータ) (2022-10-20T16:58:32Z) - Evaluating natural language processing models with generalization
metrics that do not need access to any training or testing data [66.11139091362078]
本稿では,Hugingface から事前学習した大規模トランスフォーマーに対して,一般化指標を用いた最初のモデル選択結果を提案する。
ニッチな状況にもかかわらず、ヘビーテール(HT)の観点から派生したメトリクスは、特にNLPタスクにおいて有用である。
論文 参考訳(メタデータ) (2022-02-06T20:07:35Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Generalized Matrix Factorization: efficient algorithms for fitting
generalized linear latent variable models to large data arrays [62.997667081978825]
一般化線形潜在変数モデル(GLLVM)は、そのような因子モデルを非ガウス応答に一般化する。
GLLVMのモデルパラメータを推定する現在のアルゴリズムは、集約的な計算を必要とし、大規模なデータセットにスケールしない。
本稿では,GLLVMを高次元データセットに適用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-06T04:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。