論文の概要: VIPriors 2: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges
- arxiv url: http://arxiv.org/abs/2201.08625v1
- Date: Fri, 21 Jan 2022 10:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 13:27:29.446639
- Title: VIPriors 2: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges
- Title(参考訳): VIPriors 2: データ効率のよいディープラーニングのためのビジュアルインダクティブプライオリティ
- Authors: Attila Lengyel, Robert-Jan Bruintjes, Marcos Baptista Rios, Osman
Semih Kayhan, Davide Zambrano, Nergis Tomen, Jan van Gemert
- Abstract要約: VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning”の第2版。
モデルは、様々な重要なコンピュータビジョンタスクのためのトレーニングサンプルの少ない数に基づいて、スクラッチからトレーニングされる。
結果: 提供されたベースラインは,5つの課題すべてにおいて,大きなマージンで優れています。
- 参考スコア(独自算出の注目度): 13.085098213230568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The second edition of the "VIPriors: Visual Inductive Priors for
Data-Efficient Deep Learning" challenges featured five data-impaired
challenges, where models are trained from scratch on a reduced number of
training samples for various key computer vision tasks. To encourage new and
creative ideas on incorporating relevant inductive biases to improve the data
efficiency of deep learning models, we prohibited the use of pre-trained
checkpoints and other transfer learning techniques. The provided baselines are
outperformed by a large margin in all five challenges, mainly thanks to
extensive data augmentation policies, model ensembling, and data efficient
network architectures.
- Abstract(参考訳): vipriors: visual inductive priors for data- efficient deep learning"の第2版では、さまざまな重要なコンピュータビジョンタスクのトレーニングサンプル数を削減してモデルをスクラッチからトレーニングする、データ障害のある5つの課題が取り上げられた。
深層学習モデルのデータ効率を改善するために、関連する帰納バイアスを取り入れた新しい創造的アイデアを奨励するため、事前学習されたチェックポイントやその他の伝達学習技術の使用を禁止した。
提供されるベースラインは、主にデータ拡張ポリシ、モデルアンサンブル、データ効率のよいネットワークアーキテクチャによる5つの課題において、大きなマージンで優れています。
関連論文リスト
- Selectivity Drives Productivity: Efficient Dataset Pruning for Enhanced
Transfer Learning [66.20311762506702]
データセットプルーニング(DP)は、データ効率を改善する効果的な方法として登場した。
本稿では,ラベルマッピングと特徴マッピングという2つの新しいDP手法を提案する。
ダウンストリーム性能を犠牲にすることなく、ソースデータクラスを最大40%まで刈り取ることができることを示す。
論文 参考訳(メタデータ) (2023-10-13T00:07:49Z) - VIPriors 3: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges [13.085098213230568]
VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning”ワークショップの第3版では、4つのデータ不足の課題が紹介された。
課題は、コンピュータビジョンタスクのためのディープラーニングモデルのトレーニングにおいて、データ可用性の限界に対処することに焦点を当てた。
論文 参考訳(メタデータ) (2023-05-31T09:31:54Z) - Learning without Forgetting for Vision-Language Models [65.49600786387106]
CIL(Class-Incremental Learning)あるいは継続的学習(Continuous Learning)は、現実世界において望ましい能力である。
VLM(Vision-Language Models)の最近の進歩は、一般化可能な表現を学習する上で有望な能力を示している。
本稿では,VLM を忘れずに学習できる ProjectiOn Fusion (PROOF) を提案する。
論文 参考訳(メタデータ) (2023-05-30T17:59:32Z) - Offline Q-Learning on Diverse Multi-Task Data Both Scales And
Generalizes [100.69714600180895]
オフラインのQ-ラーニングアルゴリズムは、モデルキャパシティでスケールする強力なパフォーマンスを示す。
最大8000万のパラメータネットワークを用いて,40のゲームに対してほぼ人間に近いパフォーマンスで1つのポリシーをトレーニングする。
リターン条件付き教師付きアプローチと比較して、オフラインQラーニングはモデルキャパシティと同様にスケールし、特にデータセットが最適以下である場合にはパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-11-28T08:56:42Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Image Data Augmentation for Deep Learning: A Survey [8.817690876855728]
我々は、異なる画像データ拡張手法を体系的にレビューする。
本稿では,レビュー手法の分類法を提案し,これらの手法の長所と短所について述べる。
また,3種類のコンピュータビジョンタスクに対して,様々なデータ拡張手法による広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-19T02:05:56Z) - Self-Supervised Representation Learning: Introduction, Advances and
Challenges [125.38214493654534]
自己教師付き表現学習手法は、大きな注釈付きデータセットを必要とせずに強力な機能学習を提供することを目的としている。
本稿では、この活気ある領域について、鍵となる概念、アプローチの4つの主要なファミリーと関連する技術の状態、そして、データの多様性に自己監督手法を適用する方法について紹介する。
論文 参考訳(メタデータ) (2021-10-18T13:51:22Z) - Training Deep Networks from Zero to Hero: avoiding pitfalls and going
beyond [59.94347858883343]
このチュートリアルでは、基本的なステップと、モデルを改善するためのより最近のオプションを取り上げている。
これは特に、課題のデータセットほど準備が不十分なデータセットで有用である。
論文 参考訳(メタデータ) (2021-09-06T21:31:42Z) - VIPriors 1: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges [8.50468505606714]
私たちは、モデルをスクラッチからトレーニングする4つのデータ障害課題を提供し、トレーニングサンプルの数を全セットのごく一部に削減します。
データ効率を向上するため、事前学習されたモデルやその他の移動学習技術の使用を禁止した。
論文 参考訳(メタデータ) (2021-03-05T15:58:17Z) - A Survey on Self-supervised Pre-training for Sequential Transfer
Learning in Neural Networks [1.1802674324027231]
移動学習のための自己教師付き事前学習は、ラベルのないデータを用いて最先端の結果を改善する技術として、ますます人気が高まっている。
本稿では,自己指導型学習と伝達学習の分類学の概要を述べるとともに,各領域にまたがる事前学習タスクを設計するためのいくつかの顕著な手法を強調した。
論文 参考訳(メタデータ) (2020-07-01T22:55:48Z) - Improving Deep Learning Models via Constraint-Based Domain Knowledge: a
Brief Survey [11.034875974800487]
本稿では、ディープラーニング(DL)学習モデルにおいて、制約の形で表現されたドメイン知識を統合するために考案されたアプローチを初めて調査する。
1)特徴空間に作用する,2)仮説空間の変更,3)データ拡張,4)正規化スキーム,5)制約付き学習。
論文 参考訳(メタデータ) (2020-05-19T15:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。