論文の概要: VIPriors 2: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges
- arxiv url: http://arxiv.org/abs/2201.08625v1
- Date: Fri, 21 Jan 2022 10:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-24 13:27:29.446639
- Title: VIPriors 2: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges
- Title(参考訳): VIPriors 2: データ効率のよいディープラーニングのためのビジュアルインダクティブプライオリティ
- Authors: Attila Lengyel, Robert-Jan Bruintjes, Marcos Baptista Rios, Osman
Semih Kayhan, Davide Zambrano, Nergis Tomen, Jan van Gemert
- Abstract要約: VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning”の第2版。
モデルは、様々な重要なコンピュータビジョンタスクのためのトレーニングサンプルの少ない数に基づいて、スクラッチからトレーニングされる。
結果: 提供されたベースラインは,5つの課題すべてにおいて,大きなマージンで優れています。
- 参考スコア(独自算出の注目度): 13.085098213230568
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The second edition of the "VIPriors: Visual Inductive Priors for
Data-Efficient Deep Learning" challenges featured five data-impaired
challenges, where models are trained from scratch on a reduced number of
training samples for various key computer vision tasks. To encourage new and
creative ideas on incorporating relevant inductive biases to improve the data
efficiency of deep learning models, we prohibited the use of pre-trained
checkpoints and other transfer learning techniques. The provided baselines are
outperformed by a large margin in all five challenges, mainly thanks to
extensive data augmentation policies, model ensembling, and data efficient
network architectures.
- Abstract(参考訳): vipriors: visual inductive priors for data- efficient deep learning"の第2版では、さまざまな重要なコンピュータビジョンタスクのトレーニングサンプル数を削減してモデルをスクラッチからトレーニングする、データ障害のある5つの課題が取り上げられた。
深層学習モデルのデータ効率を改善するために、関連する帰納バイアスを取り入れた新しい創造的アイデアを奨励するため、事前学習されたチェックポイントやその他の伝達学習技術の使用を禁止した。
提供されるベースラインは、主にデータ拡張ポリシ、モデルアンサンブル、データ効率のよいネットワークアーキテクチャによる5つの課題において、大きなマージンで優れています。
関連論文リスト
- Multi-Stage Knowledge Integration of Vision-Language Models for Continual Learning [79.46570165281084]
蒸留法における人間の学習過程をエミュレートするマルチステージ知識統合ネットワーク(MulKI)を提案する。
Mulkiは、イデオロギーの排除、新しいイデオロギーの追加、イデオロギーの排除、コネクティクスの作りという4つの段階を通じてこれを達成している。
提案手法は,下流タスク間の連続学習をサポートしながら,ゼロショット能力の維持における大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-11T07:36:19Z) - VIPriors 4: Visual Inductive Priors for Data-Efficient Deep Learning Challenges [12.615348941903594]
VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning”ワークショップの第4版では、2つのデータ不足の課題が紹介されている。
これらの課題は、限られたデータでコンピュータビジョンタスクのディープラーニングモデルをトレーニングする際の問題に対処する。
深層学習モデルのデータ効率を向上させるために,帰納的バイアスを取り入れた新しい手法の開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-06-26T08:50:51Z) - Augment Before Copy-Paste: Data and Memory Efficiency-Oriented Instance Segmentation Framework for Sport-scenes [7.765333471208582]
Visual Inductive Priors Challenge (VIPriors2023)では、参加者はバスケットボールコートで個人を正確に特定できるモデルを訓練しなければならない。
本稿では,視覚的インダクティブな前流伝搬に基づくメモリ効率インスタンスフレームワークを提案する。
実験では、限られたデータとメモリの制約の下でも、我々のモデルを有望な性能を示す。
論文 参考訳(メタデータ) (2024-03-18T08:44:40Z) - Less is More: High-value Data Selection for Visual Instruction Tuning [127.38740043393527]
本稿では,視覚的命令データの冗長性を排除し,トレーニングコストを削減するために,高価値なデータ選択手法TIVEを提案する。
約15%のデータしか使用していない我々のアプローチは、8つのベンチマークで全データ微調整モデルに匹敵する平均性能を実現することができる。
論文 参考訳(メタデータ) (2024-03-14T16:47:25Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - VIPriors 3: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges [13.085098213230568]
VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning”ワークショップの第3版では、4つのデータ不足の課題が紹介された。
課題は、コンピュータビジョンタスクのためのディープラーニングモデルのトレーニングにおいて、データ可用性の限界に対処することに焦点を当てた。
論文 参考訳(メタデータ) (2023-05-31T09:31:54Z) - Offline Q-Learning on Diverse Multi-Task Data Both Scales And
Generalizes [100.69714600180895]
オフラインのQ-ラーニングアルゴリズムは、モデルキャパシティでスケールする強力なパフォーマンスを示す。
最大8000万のパラメータネットワークを用いて,40のゲームに対してほぼ人間に近いパフォーマンスで1つのポリシーをトレーニングする。
リターン条件付き教師付きアプローチと比較して、オフラインQラーニングはモデルキャパシティと同様にスケールし、特にデータセットが最適以下である場合にはパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-11-28T08:56:42Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Self-Supervised Representation Learning: Introduction, Advances and
Challenges [125.38214493654534]
自己教師付き表現学習手法は、大きな注釈付きデータセットを必要とせずに強力な機能学習を提供することを目的としている。
本稿では、この活気ある領域について、鍵となる概念、アプローチの4つの主要なファミリーと関連する技術の状態、そして、データの多様性に自己監督手法を適用する方法について紹介する。
論文 参考訳(メタデータ) (2021-10-18T13:51:22Z) - VIPriors 1: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges [8.50468505606714]
私たちは、モデルをスクラッチからトレーニングする4つのデータ障害課題を提供し、トレーニングサンプルの数を全セットのごく一部に削減します。
データ効率を向上するため、事前学習されたモデルやその他の移動学習技術の使用を禁止した。
論文 参考訳(メタデータ) (2021-03-05T15:58:17Z) - Improving Deep Learning Models via Constraint-Based Domain Knowledge: a
Brief Survey [11.034875974800487]
本稿では、ディープラーニング(DL)学習モデルにおいて、制約の形で表現されたドメイン知識を統合するために考案されたアプローチを初めて調査する。
1)特徴空間に作用する,2)仮説空間の変更,3)データ拡張,4)正規化スキーム,5)制約付き学習。
論文 参考訳(メタデータ) (2020-05-19T15:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。