論文の概要: Revisiting Dynamic Evaluation: Online Adaptation for Large Language
Models
- arxiv url: http://arxiv.org/abs/2403.01518v1
- Date: Sun, 3 Mar 2024 14:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 21:08:56.074332
- Title: Revisiting Dynamic Evaluation: Online Adaptation for Large Language
Models
- Title(参考訳): 動的評価の再考:大規模言語モデルのオンライン適応
- Authors: Amal Rannen-Triki, Jorg Bornschein, Razvan Pascanu, Marcus Hutter,
Andras Gy\"orgy, Alexandre Galashov, Yee Whye Teh, Michalis K. Titsias
- Abstract要約: 我々は、動的評価(動的評価)としても知られる、テスト時の言語モデルのパラメータをオンラインで微調整する問題を考察する。
オンライン適応はパラメータを時間的に変化する状態に変換し、メモリを重み付けしたコンテキスト長拡張の形式を提供する。
- 参考スコア(独自算出の注目度): 88.47454470043552
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of online fine tuning the parameters of a language
model at test time, also known as dynamic evaluation. While it is generally
known that this approach improves the overall predictive performance,
especially when considering distributional shift between training and
evaluation data, we here emphasize the perspective that online adaptation turns
parameters into temporally changing states and provides a form of
context-length extension with memory in weights, more in line with the concept
of memory in neuroscience. We pay particular attention to the speed of
adaptation (in terms of sample efficiency),sensitivity to the overall
distributional drift, and the computational overhead for performing gradient
computations and parameter updates. Our empirical study provides insights on
when online adaptation is particularly interesting. We highlight that with
online adaptation the conceptual distinction between in-context learning and
fine tuning blurs: both are methods to condition the model on previously
observed tokens.
- Abstract(参考訳): 動的評価(動的評価)としても知られる,テスト時の言語モデルのパラメータをオンラインで微調整する問題を考察する。
このアプローチが全体的な予測性能を向上させることは一般的に知られているが、特にトレーニングデータと評価データの間の分布シフトを考慮する場合、オンライン適応はパラメータを時間変化状態に変換し、重み付き記憶を伴うコンテキスト長拡張の形式を提供し、神経科学における記憶の概念とより一致している。
我々は、適応の速度(サンプル効率の観点から)、全体の分布のドリフトに対する感度、勾配計算とパラメータ更新を行う計算オーバーヘッドに特に注意を払う。
私たちの実証研究は、オンライン適応が特に興味深い時期についての洞察を与えます。
オンライン適応では、文脈内学習と微調整の曖昧さという概念的な区別が強調される。
関連論文リスト
- Information Guided Regularization for Fine-tuning Language Models [11.831883526217942]
我々は、よりスムーズな転写学習のために、より外科的な正規化アプローチが存在する必要があると論じる。
モデル正規化の改善と下流一般化のための新しい手法を考案する。
論文 参考訳(メタデータ) (2024-06-20T05:18:37Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - Fast-Slow Test-Time Adaptation for Online Vision-and-Language Navigation [67.18144414660681]
オンラインビジョン・アンド・ランゲージナビゲーション(VLN)のためのFSTTA(Fast-Slow Test-Time Adaptation)アプローチを提案する。
提案手法は,4つのベンチマークにおいて顕著な性能向上を実現する。
論文 参考訳(メタデータ) (2023-11-22T07:47:39Z) - Learning Neural Models for Natural Language Processing in the Face of
Distributional Shift [10.990447273771592]
特定のデータセットでひとつのタスクを実行するための強力な神経予測器をトレーニングするNLPのパラダイムが、さまざまなアプリケーションで最先端のパフォーマンスを実現している。
データ分布が定常である、すなわち、トレーニングとテストの時間の両方で、データは固定された分布からサンプリングされる、という仮定に基づいて構築される。
この方法でのトレーニングは、人間が絶えず変化する情報の流れの中で学習し、操作できる方法と矛盾する。
データ分散がモデル寿命の経過とともにシフトすることが期待される実世界のユースケースに不適応である。
論文 参考訳(メタデータ) (2021-09-03T14:29:20Z) - Online Learning of a Probabilistic and Adaptive Scene Representation [31.02016059126335]
オンライン空間認識,解釈,行動のための一貫したシーンモデルを構築した。
提案手法は, 有望な効率で最先端の精度が得られることを示す。
論文 参考訳(メタデータ) (2021-03-31T06:22:05Z) - POLA: Online Time Series Prediction by Adaptive Learning Rates [4.105553918089042]
繰り返しニューラルネットワークモデルの学習速度を自動的に調整し、時系列パターンの変化に適応するPOLAを提案する。
POLAは、他のオンライン予測方法よりも総合的に、あるいは優れた予測性能を示す。
論文 参考訳(メタデータ) (2021-02-17T17:56:12Z) - Recurrent Point Review Models [1.412197703754359]
我々は,時間的情報を取り込んだ深層ニューラルネットワークモデルを構築し,時間とともにデータ変化をレビューする方法をモデル化する。
私たちはリカレントポイントプロセスモデルの動的表現を使用し、ビジネスやサービスレビューの受信履歴を時間内にエンコードします。
提案手法をレコメンデーションシステムのコンテキストに展開し,ユーザの嗜好や嗜好の変化を時間的変化とともに効果的に特徴づける。
論文 参考訳(メタデータ) (2020-12-10T14:11:42Z) - Adaptive Gradient Method with Resilience and Momentum [120.83046824742455]
レジリエンスとモメンタム(AdaRem)を用いた適応勾配法を提案する。
AdaRemは、過去の1つのパラメータの変化方向が現在の勾配の方向と一致しているかどうかに応じてパラメータワイズ学習率を調整する。
本手法は,学習速度とテスト誤差の観点から,従来の適応学習率に基づくアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2020-10-21T14:49:00Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。