論文の概要: AI capabilities can be significantly improved without expensive
retraining
- arxiv url: http://arxiv.org/abs/2312.07413v1
- Date: Tue, 12 Dec 2023 16:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 15:14:19.862686
- Title: AI capabilities can be significantly improved without expensive
retraining
- Title(参考訳): aiの能力は、高価なリトレーニングなしで大幅に改善できる
- Authors: Tom Davidson, Jean-Stanislas Denain, Pablo Villalobos, Guillem Bas
- Abstract要約: 最新のAIシステムは、"ポストトレーニングの強化"を通じて、高価なリトレーニングなしで大幅に改善できる
ツールユース、プロンプトメソッド、足場、ソリューションの選択、データ生成の5つのタイプに分類される。
ほとんどの調査では、ベンチマークのパフォーマンスがトレーニング計算の5倍以上向上し、そのうちのいくつかは20倍以上向上している。
- 参考スコア(独自算出の注目度): 1.7361161778148904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art AI systems can be significantly improved without expensive
retraining via "post-training enhancements"-techniques applied after initial
training like fine-tuning the system to use a web browser. We review recent
post-training enhancements, categorizing them into five types: tool-use,
prompting methods, scaffolding, solution selection, and data generation.
Different enhancements improve performance on different tasks, making it hard
to compare their significance. So we translate improvements from different
enhancements into a common currency, the compute-equivalent gain: how much
additional training compute would be needed to improve performance by the same
amount as the enhancement. Our non-experimental work shows that post-training
enhancements have significant benefits: most surveyed enhancements improve
benchmark performance by more than a 5x increase in training compute, some by
more than 20x. Post-training enhancements are relatively cheap to develop:
fine-tuning costs are typically <1% of the original training cost. Governing
the development of capable post-training enhancements may be challenging
because frontier models could be enhanced by a wide range of actors.
- Abstract(参考訳): 最新のaiシステムは、webブラウザを使用するようにシステムを微調整するなど、初期トレーニング後に適用される"post-training enhancements"技術によって、高価な再トレーニングをすることなく、大幅に改善することができる。
最近のトレーニング後の機能強化をレビューし、ツール利用、プロンプトメソッド、足場、ソリューション選択、データ生成の5つのタイプに分類した。
異なる拡張により、異なるタスクのパフォーマンスが改善され、その重要性を比較することが困難になる。
そこで私たちは、さまざまな機能強化による改善を共通の通貨、計算等価のゲインに変換する: 強化と同額のパフォーマンスを改善するために、どれだけのトレーニング計算が必要か。
ほとんどの調査対象の拡張機能は、トレーニング計算の5倍以上の向上と、20倍以上の速度向上を実現しています。
訓練後の強化は比較的安価で、微調整コストは通常、当初のトレーニングコストの1%以下である。
幅広いアクターによってフロンティアモデルを拡張できるため、有能なポストトレーニング強化の開発を監督することは困難である。
関連論文リスト
- Self-training Language Models for Arithmetic Reasoning [0.0]
我々は、新しいデータなしでモデルの推論能力を改善する可能性を探る。
モデルは単一ラウンド(オフライン)とオンラインの自己学習の両方で大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2024-07-11T11:06:05Z) - Tied-Augment: Controlling Representation Similarity Improves Data
Augmentation [18.446051824487792]
我々は、広範囲のアプリケーションでデータ拡張を改善するため、Tied-Augmentと呼ばれるフレームワークを提案する。
Tied-Augmentは、データ拡張(RandAugment、mixupなど)、最適化(SAMなど)、半教師付き学習(FixMatchなど)から最先端の手法を改善することができる。
論文 参考訳(メタデータ) (2023-05-22T22:23:40Z) - Learning to Optimize for Reinforcement Learning [58.01132862590378]
強化学習(Reinforcement Learning, RL)は、教師付き学習とは本質的に異なり、実際、これらの学習は単純なRLタスクでもうまく機能しない。
エージェント勾配分布は非独立で同一分布であり、非効率なメタトレーニングをもたらす。
おもちゃのタスクでしか訓練されていないが、我々の学習はブラックスの目に見えない複雑なタスクを一般化できることを示した。
論文 参考訳(メタデータ) (2023-02-03T00:11:02Z) - Data Augmentation Alone Can Improve Adversarial Training [5.1024659285813785]
データの増大だけでは、敵の訓練における精度と堅牢性を大幅に向上させることができる。
我々は,改良された多様性とバランスの取れた硬さを有する新たな作物形質転換であるCropshiftを提案する。
本手法は, 対人訓練におけるデータ強化のための最先端の精度と堅牢性を実現する。
論文 参考訳(メタデータ) (2023-01-24T09:36:39Z) - Efficient and Effective Augmentation Strategy for Adversarial Training [48.735220353660324]
ディープニューラルネットワークの敵対的トレーニングは、標準トレーニングよりもはるかにデータ処理が難しいことが知られている。
本稿では,DAJAT(Diverse Augmentation-based Joint Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-10-27T10:59:55Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z) - Time Matters in Using Data Augmentation for Vision-based Deep
Reinforcement Learning [4.921588282642753]
増量を使用するタイミングは、トレーニングやテストで解決すべきタスクによって重要になります。
増員によって課される正規化がテストにのみ役立つ場合、サンプルと計算の複雑さの観点からトレーニング中に使用するよりも、トレーニング後の増員を推し進める方がよい。
論文 参考訳(メタデータ) (2021-02-17T05:22:34Z) - Training Learned Optimizers with Randomly Initialized Learned Optimizers [49.67678615506608]
ランダムに学習した人の集団は、オンラインの方法でゼロから学習することができる。
人口ベーストレーニングの形式は、この自己学習の組織化に使用される。
このタイプのフィードバックループは、機械学習の将来において重要かつ強力なものになると思います。
論文 参考訳(メタデータ) (2021-01-14T19:07:17Z) - Improving GAN Training with Probability Ratio Clipping and Sample
Reweighting [145.5106274085799]
GAN(Generative Adversarial Network)は、不安定なトレーニングにより性能が低下することが多い。
本稿では,より優れたトレーニング安定性を享受する新しい変分GANトレーニングフレームワークを提案する。
多様な最先端のGANアーキテクチャにトレーニングアプローチを組み込むことで、幅広いタスクに対して大幅な性能向上を実現した。
論文 参考訳(メタデータ) (2020-06-12T01:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。