論文の概要: NeurIPS 2023 LLM Efficiency Fine-tuning Competition
- arxiv url: http://arxiv.org/abs/2503.13507v1
- Date: Thu, 13 Mar 2025 19:35:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:18:06.321621
- Title: NeurIPS 2023 LLM Efficiency Fine-tuning Competition
- Title(参考訳): NeurIPS 2023 LLM高効率微調整コンペティション
- Authors: Mark Saroufim, Yotam Perlitz, Leshem Choshen, Luca Antiga, Greg Bowyer, Christian Puhrsch, Driss Guessous, Supriya Rao, Geeta Chauhan, Ashvini Kumar, Jindal Pawan Kumar, Rajpoot Ankur Parikh, Joe Isaacson, Weiwei Yang,
- Abstract要約: トップパフォーマンスモデルは、ベンチマークデータセットにかなりのオーバーフィットを示し、人気のあるリーダボードにベンチマークオーバーフィットするというより広い課題を反映している。
その結果, モデル生成における現在のベンチマークに基づく評価手法の限界が浮き彫りになった。
さらなる調査と促進のために、コンペのエントリ、Dockerファイル、インフラストラクチャをすべてリリースしています。
- 参考スコア(独自算出の注目度): 8.327069446234088
- License:
- Abstract: Our analysis of the NeurIPS 2023 large language model (LLM) fine-tuning competition revealed the following trend: top-performing models exhibit significant overfitting on benchmark datasets, mirroring the broader issue of benchmark overfitting on popular leaderboards and that data curation is essential in order to get a high performing LLM. The competition, which consisted of two stages - an open evaluation stage with publicly available tasks and a closed evaluation stage with unseen tasks - allowed us to assess the generalizability of fine-tuned LLMs. Our results highlight the limitations of current benchmark-based evaluation schemes for generative models and demonstrate the need for more robust evaluation methods. Notably, the winning submissions utilized standard open-source libraries and focused primarily on data curation. To facilitate further research and promote reproducibility, we release all competition entries, Docker files, and evaluation infrastructure, providing a valuable resource for the community to explore fine-tuning, overfitting, and reproducibility in LLMs.
- Abstract(参考訳): NeurIPS 2023 large language model (LLM) fine-tuning competitionは、以下の傾向を示した: 最高のパフォーマンスモデルは、ベンチマークデータセットにかなりのオーバーフィットを示し、人気のあるリーダーボードにオーバーフィットするベンチマークの幅広い問題を反映し、高いパフォーマンスのLLMを得るためには、データキュレーションが不可欠である。
コンペティションは,公開タスクのオープン評価段階と未確認タスクのクローズド評価段階の2段階からなり,微調整LDMの汎用性を評価することができた。
本研究は, モデル生成における現在のベンチマークに基づく評価手法の限界を強調し, より堅牢な評価手法の必要性を実証するものである。
特に、受賞した応募者は標準のオープンソースライブラリを利用し、主にデータキュレーションに焦点を当てた。
さらなる調査と再現性を促進するため、私たちは、すべてのコンペティションエントリ、Dockerファイル、評価インフラストラクチャをリリースし、LCMの微調整、過度な適合、再現性を探るための貴重なリソースをコミュニティに提供する。
関連論文リスト
- Leveraging Online Olympiad-Level Math Problems for LLMs Training and Contamination-Resistant Evaluation [55.21013307734612]
AoPS-Instructは60,000以上の高品質QAペアのデータセットである。
LiveAoPSBenchは、最新のフォーラムデータから派生したタイムスタンプによる進化的評価セットである。
我々の研究は、高度な数学推論のための大規模で高品質なデータセットの作成と維持にスケーラブルなアプローチを提示している。
論文 参考訳(メタデータ) (2025-01-24T06:39:38Z) - AI Predicts AGI: Leveraging AGI Forecasting and Peer Review to Explore LLMs' Complex Reasoning Capabilities [0.3745329282477066]
2030年までに出現するAI(Artificial General Intelligence, AGI)の可能性を推定し, 最先端の大規模言語モデル16を課題とした。
これらの予測の質を評価するために,自動ピアレビュープロセス(LLM-PR)を実装した。
論文 参考訳(メタデータ) (2024-12-12T15:52:41Z) - A Large-Scale Study of Relevance Assessments with Large Language Models: An Initial Look [52.114284476700874]
本稿では,4つの異なる関連性評価手法が展開された大規模評価(TREC 2024 RAG Track)の結果について報告する。
自動生成UMBRELA判定は、完全に手動による判断を置き換えて、実行レベルの有効性を正確に捉えることができる。
意外なことに、LLMアシストは完全な手作業による評価と相関を増さないようで、人間のループプロセスに関連するコストは明らかな有意義な利益をもたらすものではないことを示唆している。
論文 参考訳(メタデータ) (2024-11-13T01:12:35Z) - Self-Calibrated Listwise Reranking with Large Language Models [137.6557607279876]
大規模言語モデル (LLM) はシーケンシャル・ツー・シーケンス・アプローチによってタスクのランク付けに使用されている。
この階調のパラダイムは、より大きな候補集合を反復的に扱うためにスライディングウインドウ戦略を必要とする。
そこで本稿では,LLMを用いた自己校正リストのランク付け手法を提案する。
論文 参考訳(メタデータ) (2024-11-07T10:31:31Z) - MMIE: Massive Multimodal Interleaved Comprehension Benchmark for Large Vision-Language Models [71.36392373876505]
我々は、LVLM(Large Vision-Language Models)において、インターリーブされたマルチモーダル理解と生成を評価するための大規模ベンチマークであるMMIEを紹介する。
MMIEは、数学、コーディング、物理学、文学、健康、芸術を含む3つのカテゴリ、12のフィールド、102のサブフィールドにまたがる20Kの厳密にキュレートされたマルチモーダルクエリで構成されている。
インターリーブされたインプットとアウトプットの両方をサポートし、多様な能力を評価するために、複数選択とオープンな質問フォーマットの混合を提供する。
論文 参考訳(メタデータ) (2024-10-14T04:15:00Z) - FedEval-LLM: Federated Evaluation of Large Language Models on Downstream Tasks with Collective Wisdom [19.104850413126066]
大規模言語モデル(LLM)の協調学習のための有望なソリューションとして、フェデレートラーニング(FL)が登場した。
ラベル付きテストセットと類似度に基づくメトリクスに依存する従来の評価手法は、許容できる答えのサブセットのみをカバーする。
我々は、ラベル付きテストセットや外部ツールに依存することなく、下流タスクにおけるLCMの信頼性の高い性能測定を提供するFedEval-LLMを提案する。
論文 参考訳(メタデータ) (2024-04-18T15:46:26Z) - Don't Make Your LLM an Evaluation Benchmark Cheater [142.24553056600627]
大規模言語モデル(LLM)は人工知能のフロンティアを大幅に進歩させ、モデルキャパシティを著しく向上させた。
モデル性能を評価するために, LLMの能力レベルを測定するための評価ベンチマークを構築するのが典型的な方法である。
評価ベンチマークを用いて不適切なリスクと影響について検討し,評価結果を誤って解釈する。
論文 参考訳(メタデータ) (2023-11-03T14:59:54Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z) - Measuring Sample Efficiency and Generalization in Reinforcement Learning
Benchmarks: NeurIPS 2020 Procgen Benchmark [22.569342580049163]
NeurIPS 2020 Procgen Competitionは、強化学習におけるサンプル効率と一般化を測定するタスクを明確に定義した集中型ベンチマークとして設計されています。
本稿では,強化学習におけるサンプル効率と一般化の測定に役立つ強化学習のための集中型ベンチマークの設計について述べる。
論文 参考訳(メタデータ) (2021-03-29T05:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。