論文の概要: Learning to Sample the Most Useful Training Patches from Images
- arxiv url: http://arxiv.org/abs/2011.12097v1
- Date: Tue, 24 Nov 2020 14:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 14:04:40.788821
- Title: Learning to Sample the Most Useful Training Patches from Images
- Title(参考訳): 画像から最も有用なトレーニングパッチをサンプリングする学習
- Authors: Shuyang Sun, Liang Chen, Gregory Slabaugh, Philip Torr
- Abstract要約: 我々は、画像から最も有用なパッチを選択して、新しいトレーニングセットを構築する、PatchNetと呼ばれるデータ駆動型アプローチを提案する。
我々の単純なアイデアは、大規模なデータセットから情報的サンプルを自動的に選択することを示し、PSNRの観点で2.35dBの一般化が驚くべき結果となった。
- 参考スコア(独自算出の注目度): 11.219920058662698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Some image restoration tasks like demosaicing require difficult training
samples to learn effective models. Existing methods attempt to address this
data training problem by manually collecting a new training dataset that
contains adequate hard samples, however, there are still hard and simple areas
even within one single image. In this paper, we present a data-driven approach
called PatchNet that learns to select the most useful patches from an image to
construct a new training set instead of manual or random selection. We show
that our simple idea automatically selects informative samples out from a
large-scale dataset, leading to a surprising 2.35dB generalisation gain in
terms of PSNR. In addition to its remarkable effectiveness, PatchNet is also
resource-friendly as it is applied only during training and therefore does not
require any additional computational cost during inference.
- Abstract(参考訳): デモサイジングのような画像復元タスクは、効果的なモデルを学ぶのに難しいトレーニングサンプルを必要とする。
既存の方法は、適切なハードサンプルを含む新しいトレーニングデータセットを手動で収集することで、このデータトレーニング問題に対処しようとするが、1つの画像の中にも、依然として困難で単純な領域がある。
本稿では、画像から最も有用なパッチを選択して、手動やランダムな選択の代わりに新しいトレーニングセットを構築する、PatchNetと呼ばれるデータ駆動型アプローチを提案する。
我々の単純なアイデアは、大規模なデータセットから情報的サンプルを自動的に選択することを示し、PSNRの観点で2.35dBの一般化が驚くべき結果となった。
その顕著な効果に加えて、PatchNetはトレーニング中にのみ適用され、推論中に追加の計算コストを必要としないため、リソースフレンドリーである。
関連論文リスト
- Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - EfficientTrain++: Generalized Curriculum Learning for Efficient Visual Backbone Training [79.96741042766524]
訓練カリキュラムをソフトセレクション機能として再構築する。
自然画像の内容の露光は,データ拡張の強度によって容易に達成できることを示す。
結果のメソッドであるEfficientTrain++は単純で汎用的だが驚くほど効果的である。
論文 参考訳(メタデータ) (2024-05-14T17:00:43Z) - One-Shot Image Restoration [0.0]
提案手法の適用性, 堅牢性, 計算効率を, 教師付き画像の劣化と超解像に応用できることを実験的に示す。
本結果は,学習モデルのサンプル効率,一般化,時間複雑性を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2024-04-26T14:03:23Z) - Towards Label-Efficient Human Matting: A Simple Baseline for Weakly Semi-Supervised Trimap-Free Human Matting [50.99997483069828]
我々は、新しい学習パラダイム、弱半教師付きヒトマット(WSSHM)を導入する。
WSSHMは、少量の高価なマットラベルと大量の予算に優しいセグメンテーションラベルを使用して、アノテーションのコストを節約し、ドメインの一般化問題を解決する。
また, 実時間モデルにも容易に適用でき, ブレークネック推論速度で競合精度を達成できる。
論文 参考訳(メタデータ) (2024-04-01T04:53:06Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。