論文の概要: Learning to Sample the Most Useful Training Patches from Images
- arxiv url: http://arxiv.org/abs/2011.12097v1
- Date: Tue, 24 Nov 2020 14:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 14:04:40.788821
- Title: Learning to Sample the Most Useful Training Patches from Images
- Title(参考訳): 画像から最も有用なトレーニングパッチをサンプリングする学習
- Authors: Shuyang Sun, Liang Chen, Gregory Slabaugh, Philip Torr
- Abstract要約: 我々は、画像から最も有用なパッチを選択して、新しいトレーニングセットを構築する、PatchNetと呼ばれるデータ駆動型アプローチを提案する。
我々の単純なアイデアは、大規模なデータセットから情報的サンプルを自動的に選択することを示し、PSNRの観点で2.35dBの一般化が驚くべき結果となった。
- 参考スコア(独自算出の注目度): 11.219920058662698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Some image restoration tasks like demosaicing require difficult training
samples to learn effective models. Existing methods attempt to address this
data training problem by manually collecting a new training dataset that
contains adequate hard samples, however, there are still hard and simple areas
even within one single image. In this paper, we present a data-driven approach
called PatchNet that learns to select the most useful patches from an image to
construct a new training set instead of manual or random selection. We show
that our simple idea automatically selects informative samples out from a
large-scale dataset, leading to a surprising 2.35dB generalisation gain in
terms of PSNR. In addition to its remarkable effectiveness, PatchNet is also
resource-friendly as it is applied only during training and therefore does not
require any additional computational cost during inference.
- Abstract(参考訳): デモサイジングのような画像復元タスクは、効果的なモデルを学ぶのに難しいトレーニングサンプルを必要とする。
既存の方法は、適切なハードサンプルを含む新しいトレーニングデータセットを手動で収集することで、このデータトレーニング問題に対処しようとするが、1つの画像の中にも、依然として困難で単純な領域がある。
本稿では、画像から最も有用なパッチを選択して、手動やランダムな選択の代わりに新しいトレーニングセットを構築する、PatchNetと呼ばれるデータ駆動型アプローチを提案する。
我々の単純なアイデアは、大規模なデータセットから情報的サンプルを自動的に選択することを示し、PSNRの観点で2.35dBの一般化が驚くべき結果となった。
その顕著な効果に加えて、PatchNetはトレーニング中にのみ適用され、推論中に追加の計算コストを必要としないため、リソースフレンドリーである。
関連論文リスト
- A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - Evaluating Data Attribution for Text-to-Image Models [62.844382063780365]
我々は,既存の大規模モデルを与えられた模範オブジェクトやスタイルにチューニングする「カストミゼーション」手法による属性評価を行う。
私たちのキーとなる洞察は、これによって、構築によって模範にコンピュータ的に影響される合成画像を効率的に作成できるということです。
問題の本質的な不確実性を考慮することで、一連のトレーニング画像に対してソフトな属性スコアを割り当てることができる。
論文 参考訳(メタデータ) (2023-06-15T17:59:51Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Training Patch Analysis and Mining Skills for Image Restoration Deep
Neural Networks [20.195082841065947]
本稿では、トレーニングパッチの分析を行い、異なるパッチ抽出方法の結果について検討する。
本稿では,与えられたトレーニング画像からパッチ抽出を行うためのガイドラインを提案する。
論文 参考訳(メタデータ) (2022-07-03T16:37:57Z) - Uniform Sampling over Episode Difficulty [55.067544082168624]
本稿では,その難易度に基づいて,エピソードサンプリング分布を近似する手法を提案する。
提案手法はアルゴリズムに依存しないため,これらの知見を利用して数発の学習精度を向上させることができる。
論文 参考訳(メタデータ) (2021-08-03T17:58:54Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z) - Efficient Deep Representation Learning by Adaptive Latent Space Sampling [16.320898678521843]
監視されたディープラーニングには、アノテーションを備えた大量のトレーニングサンプルが必要です。
本稿では,学習プロセスに供給される情報サンプルを適応的に選択する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-19T22:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。