論文の概要: VIPriors 1: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges
- arxiv url: http://arxiv.org/abs/2103.03768v1
- Date: Fri, 5 Mar 2021 15:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:49:25.147017
- Title: VIPriors 1: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges
- Title(参考訳): VIPriors 1:データ効率の高いディープラーニングチャレンジのためのビジュアルインダクタティブプライオリティ
- Authors: Robert-Jan Bruintjes, Attila Lengyel, Marcos Baptista Rios, Osman
Semih Kayhan, Jan van Gemert
- Abstract要約: 私たちは、モデルをスクラッチからトレーニングする4つのデータ障害課題を提供し、トレーニングサンプルの数を全セットのごく一部に削減します。
データ効率を向上するため、事前学習されたモデルやその他の移動学習技術の使用を禁止した。
- 参考スコア(独自算出の注目度): 8.50468505606714
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present the first edition of "VIPriors: Visual Inductive Priors for
Data-Efficient Deep Learning" challenges. We offer four data-impaired
challenges, where models are trained from scratch, and we reduce the number of
training samples to a fraction of the full set. Furthermore, to encourage data
efficient solutions, we prohibited the use of pre-trained models and other
transfer learning techniques. The majority of top ranking solutions make heavy
use of data augmentation, model ensembling, and novel and efficient network
architectures to achieve significant performance increases compared to the
provided baselines.
- Abstract(参考訳): 我々は"VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning"の初版を提示する。
私たちは、モデルをスクラッチからトレーニングする4つのデータ障害課題を提供し、トレーニングサンプルの数を全セットのごく一部に削減します。
さらに,データ効率を向上するために,事前学習したモデルやその他の伝達学習技術の使用を禁止した。
上位ランキングのソリューションの大半は、提供されたベースラインに比べて大幅なパフォーマンス向上を達成するために、データ拡張、モデルエンハンブル、および新規で効率的なネットワークアーキテクチャを多用している。
関連論文リスト
- A Pre-trained Data Deduplication Model based on Active Learning [12.128827340330485]
汚れたデータ"問題は、ビッグデータの効果的な適用を著しく制限することができる。
本研究では,能動学習に基づく事前学習型重複解法モデルを提案する。
提案モデルでは、重複データ識別のための従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-07-31T03:56:46Z) - VIPriors 3: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges [13.085098213230568]
VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning”ワークショップの第3版では、4つのデータ不足の課題が紹介された。
課題は、コンピュータビジョンタスクのためのディープラーニングモデルのトレーニングにおいて、データ可用性の限界に対処することに焦点を当てた。
論文 参考訳(メタデータ) (2023-05-31T09:31:54Z) - Offline Q-Learning on Diverse Multi-Task Data Both Scales And
Generalizes [100.69714600180895]
オフラインのQ-ラーニングアルゴリズムは、モデルキャパシティでスケールする強力なパフォーマンスを示す。
最大8000万のパラメータネットワークを用いて,40のゲームに対してほぼ人間に近いパフォーマンスで1つのポリシーをトレーニングする。
リターン条件付き教師付きアプローチと比較して、オフラインQラーニングはモデルキャパシティと同様にスケールし、特にデータセットが最適以下である場合にはパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-11-28T08:56:42Z) - Pre-Train Your Loss: Easy Bayesian Transfer Learning with Informative
Priors [59.93972277761501]
我々は,教師付きあるいは自己指導型アプローチにより,ソースタスクから高い情報的後部を学習できることを実証した。
このシンプルなモジュラーアプローチは、様々な下流の分類とセグメンテーションタスクにおいて、大幅なパフォーマンス向上と、よりデータ効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2022-05-20T16:19:30Z) - Knowledge Distillation as Efficient Pre-training: Faster Convergence,
Higher Data-efficiency, and Better Transferability [53.27240222619834]
効率的な事前学習としての知識蒸留は、学習した特徴表現を学習済みモデルから将来の下流タスクのための新しい学生モデルに効率的に転送することを目的としている。
提案手法は,3つの下流タスクにおける教師付き事前学習タスクと,10倍少ないデータと5倍少ない事前学習時間を必要とする9つの下流データセットとを比較検討する。
論文 参考訳(メタデータ) (2022-03-10T06:23:41Z) - VIPriors 2: Visual Inductive Priors for Data-Efficient Deep Learning
Challenges [13.085098213230568]
VIPriors: Visual Inductive Priors for Data-Efficient Deep Learning”の第2版。
モデルは、様々な重要なコンピュータビジョンタスクのためのトレーニングサンプルの少ない数に基づいて、スクラッチからトレーニングされる。
結果: 提供されたベースラインは,5つの課題すべてにおいて,大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-01-21T10:20:52Z) - The Second Place Solution for ICCV2021 VIPriors Instance Segmentation
Challenge [6.087398773657721]
データ効率のよいコンピュータビジョンのためのビジュアルインダクティブプライオリティ(VIPriors)は、競合に対して、データ不足の環境でモデルをゼロからトレーニングするように求めている。
ICCV 2021 VIPriorsインスタンスセグメンテーションチャレンジの技術的詳細を紹介する。
ICCV 2021 VIPriors インスタンスセグメンテーションの試験セットで 40.2%AP@0.50:0.95 を達成することができる。
論文 参考訳(メタデータ) (2021-12-02T09:23:02Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Efficient Conditional Pre-training for Transfer Learning [71.01129334495553]
本稿では,事前学習データセットから関連するサブセットを選択するための効率的なフィルタリング手法を提案する。
我々は、教師なし設定と教師なし設定の両方において、ImageNetで事前トレーニングを行うことで、我々の技術を検証する。
我々は、サブセットで利用可能なモデルをチューニングし、大規模なデータセットからフィルタリングされたデータセットで事前トレーニングすることで、標準のImageNet事前トレーニングを1~3%改善する。
論文 参考訳(メタデータ) (2020-11-20T06:16:15Z) - Data-Efficient Deep Learning Method for Image Classification Using Data
Augmentation, Focal Cosine Loss, and Ensemble [9.55617552923003]
パフォーマンス向上のためには、小さなデータセットを効果的に活用することが重要です。
これらの手法により,クラス毎に50の画像のみからなるImageNetデータを活用することにより,精度の高い画像データを得る。
データ・エフェクティブ・コンピュータ・ビジョン・チャレンジのビジュアル・インダクティブ・プリンタでは,本モデルが4位にランクインしている。
論文 参考訳(メタデータ) (2020-07-15T16:30:57Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。