論文の概要: FLUID: A Unified Evaluation Framework for Flexible Sequential Data
- arxiv url: http://arxiv.org/abs/2007.02519v5
- Date: Thu, 9 Dec 2021 23:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 01:50:50.229867
- Title: FLUID: A Unified Evaluation Framework for Flexible Sequential Data
- Title(参考訳): FLUID: フレキシブルシーケンスデータのための統一評価フレームワーク
- Authors: Matthew Wallingford, Aditya Kusupati, Keivan Alizadeh-Vahid, Aaron
Walsman, Aniruddha Kembhavi, Ali Farhadi
- Abstract要約: 我々は新しい統合評価フレームワーク、FLUID(Flexible Sequential Data)を導入する。
FLUIDは、少数ショット、継続、転送、表現学習の目的を統合している。
我々は、現在のソリューションの利点と限界に関する新たな洞察をもたらす、幅広い手法の実験を行う。
- 参考スコア(独自算出の注目度): 42.44973069520298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern ML methods excel when training data is IID, large-scale, and well
labeled. Learning in less ideal conditions remains an open challenge. The
sub-fields of few-shot, continual, transfer, and representation learning have
made substantial strides in learning under adverse conditions; each affording
distinct advantages through methods and insights. These methods address
different challenges such as data arriving sequentially or scarce training
examples, however often the difficult conditions an ML system will face over
its lifetime cannot be anticipated prior to deployment. Therefore, general ML
systems which can handle the many challenges of learning in practical settings
are needed. To foster research towards the goal of general ML methods, we
introduce a new unified evaluation framework - FLUID (Flexible Sequential
Data). FLUID integrates the objectives of few-shot, continual, transfer, and
representation learning while enabling comparison and integration of techniques
across these subfields. In FLUID, a learner faces a stream of data and must
make sequential predictions while choosing how to update itself, adapt quickly
to novel classes, and deal with changing data distributions; while accounting
for the total amount of compute. We conduct experiments on a broad set of
methods which shed new insight on the advantages and limitations of current
solutions and indicate new research problems to solve. As a starting point
towards more general methods, we present two new baselines which outperform
other evaluated methods on FLUID. Project page:
https://raivn.cs.washington.edu/projects/FLUID/.
- Abstract(参考訳): 現在のMLメソッドは、トレーニングデータがID、大規模、ラベル付けされたときに優れている。
理想的でない条件下での学習は、依然としてオープンな課題である。
少数ショット、連続、移動、表現学習のサブフィールドは、悪条件下での学習において大きな進歩を遂げている。
これらのメソッドは、シーケンシャルに到着するデータやトレーニング例の不足など、さまざまな課題に対処するが、MLシステムが生涯にわたって直面する難しい条件は、デプロイ前に予測できないことが多い。
したがって,実践的な環境で学習する上で多くの課題に対処できる汎用MLシステムが必要である。
汎用ML手法の目標に向けた研究を促進するために,新しい統合評価フレームワークであるFLUID(Flexible Sequential Data)を導入する。
FLUIDは、これらのサブフィールドにまたがる技術の比較と統合を可能にしながら、少数ショット、連続、転送、表現学習の目的を統合している。
FLUIDでは、学習者はデータのストリームに直面し、自身の更新方法を選択し、新しいクラスに迅速に適応し、データ分散の変化に対処し、計算の総量を考慮しつつ、シーケンシャルな予測をしなければならない。
我々は,現在のソリューションの利点と限界に関する新たな洞察を与え,解決すべき新たな研究課題を示す,幅広い手法の実験を行う。
より一般的な手法への出発点として、FLUID上の他の評価手法よりも優れた2つの新しいベースラインを提案する。
プロジェクトページ: https://raivn.cs.washington.edu/projects/fluid/
関連論文リスト
- Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Conditional Prototype Rectification Prompt Learning [32.533844163120875]
本稿では, 基本事例のバイアスを補正し, 限られたデータを効果的に拡張するための, CPR(Prototype Rectification Prompt Learning)手法を提案する。
CPRは、いくつかのショット分類とベース・ツー・ニューな一般化タスクの両方において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-15T15:43:52Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - A Survey of Learning on Small Data: Generalization, Optimization, and
Challenge [101.27154181792567]
ビッグデータの一般化能力を近似した小さなデータについて学ぶことは、AIの究極の目的の1つである。
この調査はPACフレームワークの下でのアクティブサンプリング理論に従い、小さなデータにおける学習の一般化誤差とラベルの複雑さを分析した。
効率的な小さなデータ表現の恩恵を受けるかもしれない複数のデータアプリケーションについて調査する。
論文 参考訳(メタデータ) (2022-07-29T02:34:19Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Lifelong Intent Detection via Multi-Strategy Rebalancing [18.424132535727217]
本稿では,新しいデータに対するIDモデルを継続的に訓練し,新たな意図を学習するライフロングインテント検出(LID)を提案する。
既存の生涯学習手法は、通常、LIDタスクにおける古いデータと新しいデータの間の深刻な不均衡に悩まされる。
本稿では,コサイン正規化,階層的知識蒸留,クラス間マージン損失からなる,新しい生涯学習手法であるMulti-Strategy Rebalancing(MSR)を提案する。
論文 参考訳(メタデータ) (2021-08-10T04:35:13Z) - FedSemi: An Adaptive Federated Semi-Supervised Learning Framework [23.90642104477983]
フェデレートラーニング(FL)は、データを共有し、プライバシーを漏らすことなく、機械学習モデルをコトレーニングするための効果的なテクニックとして登場した。
既存のFL法の多くは、教師付き設定に重点を置いて、ラベルなしデータの利用を無視している。
本稿では,FedSemiを提案する。FedSemiは,教師-学生モデルを用いてFLに整合性正則化を導入する新しい,適応的で汎用的なフレームワークである。
論文 参考訳(メタデータ) (2020-12-06T15:46:04Z) - Bayesian Meta-Prior Learning Using Empirical Bayes [3.666114237131823]
本稿では,情報的事前の欠如とパラメータ学習率の制御能力に対処する階層的経験ベイズ手法を提案する。
本手法は,データ自体から経験的メタプライヤを学習し,その学習率を1次および2次の特徴の分離に利用する。
スパースデータの最適化は、しばしば課題となるため、私たちの発見は有望です。
論文 参考訳(メタデータ) (2020-02-04T05:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。