論文の概要: Pre-training without Natural Images
- arxiv url: http://arxiv.org/abs/2101.08515v1
- Date: Thu, 21 Jan 2021 09:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 08:02:44.668586
- Title: Pre-training without Natural Images
- Title(参考訳): 自然画像のない事前学習
- Authors: Hirokatsu Kataoka and Kazushige Okayasu and Asato Matsumoto and Eisuke
Yamagata and Ryosuke Yamada and Nakamasa Inoue and Akio Nakamura and Yutaka
Satoh
- Abstract要約: この論文は、新しい概念、公式駆動教師あり学習を提案する。
私たちは、現実世界の背景知識に存在する自然法則に基づくフラクタルを割り当てることで、画像パターンとそのカテゴリラベルを自動的に生成します。
自然画像のないデータベースであるフラクタルデータベース(fractaldb)で事前トレーニングされたモデルは、すべての設定で人間の注釈付きデータセットで事前トレーニングされたモデルを上回るものではない。
- 参考スコア(独自算出の注目度): 21.0934389974642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Is it possible to use convolutional neural networks pre-trained without any
natural images to assist natural image understanding? The paper proposes a
novel concept, Formula-driven Supervised Learning. We automatically generate
image patterns and their category labels by assigning fractals, which are based
on a natural law existing in the background knowledge of the real world.
Theoretically, the use of automatically generated images instead of natural
images in the pre-training phase allows us to generate an infinite scale
dataset of labeled images. Although the models pre-trained with the proposed
Fractal DataBase (FractalDB), a database without natural images, does not
necessarily outperform models pre-trained with human annotated datasets at all
settings, we are able to partially surpass the accuracy of ImageNet/Places
pre-trained models. The image representation with the proposed FractalDB
captures a unique feature in the visualization of convolutional layers and
attentions.
- Abstract(参考訳): 自然画像の理解を補助するために、自然画像なしで事前学習された畳み込みニューラルネットワークを使うことは可能か?
この論文は、新しい概念、公式駆動教師あり学習を提案する。
実世界の背景知識に存在する自然法則に基づいたフラクタルを割り当てることで,画像パターンとそのカテゴリラベルを自動的に生成する。
理論的には、事前学習段階で自然画像の代わりに自動生成画像を使用することで、ラベル付き画像の無限規模のデータセットを生成することができる。
自然画像のないデータベースであるフラクタルデータベース(fractaldb)で事前トレーニングされたモデルは、すべての設定で人間の注釈付きデータセットで事前トレーニングされたモデルを上回るとは限らないが、imagenet/placesプリトレーニングモデルの精度を部分的に上回ることができる。
提案するfractaldbによる画像表現は、畳み込み層と注意の可視化においてユニークな特徴を捉えている。
関連論文リスト
- Towards Unsupervised Blind Face Restoration using Diffusion Prior [12.69610609088771]
ブラインド顔復元法は、教師付き学習による大規模合成データセットの訓練において、顕著な性能を示した。
これらのデータセットは、手作りの画像分解パイプラインで、低品質の顔イメージをシミュレートすることによって生成されることが多い。
本稿では, 入力画像の集合のみを用いて, 劣化が不明で, 真理の目標がない場合にのみ, 復元モデルの微調整を行うことにより, この問題に対処する。
我々の最良のモデルは、合成と実世界の両方のデータセットの最先端の結果も達成します。
論文 参考訳(メタデータ) (2024-10-06T20:38:14Z) - Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - DINOv2: Learning Robust Visual Features without Supervision [75.42921276202522]
この研究は、既存の事前学習手法、特に自己教師付き手法が、多様なソースから十分なキュレートされたデータで訓練すれば、そのような特徴を生み出すことができることを示している。
技術的な貢献の多くは、大規模なトレーニングを加速し、安定化することを目的としています。
データの観点からは、自己組織化されていないデータではなく、専用で多様でキュレートされた画像データセットを構築するための自動パイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-14T15:12:19Z) - Fake it till you make it: Learning transferable representations from
synthetic ImageNet clones [30.264601433216246]
ImageNetクローンは、合成画像と実画像で訓練されたモデルとのギャップの大部分を埋めることができることを示す。
合成画像上で訓練されたモデルは,強い一般化特性を示し,実際のデータで訓練されたモデルと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-12-16T11:44:01Z) - Sketch-Guided Text-to-Image Diffusion Models [57.12095262189362]
本稿では,事前訓練されたテキスト-画像拡散モデルを示す普遍的なアプローチを提案する。
本手法では,タスク専用のモデルや専用エンコーダをトレーニングする必要はない。
我々は、スケッチ・ツー・イメージの翻訳タスクに特に焦点をあて、画像を生成する堅牢で表現力のある方法を明らかにする。
論文 参考訳(メタデータ) (2022-11-24T18:45:32Z) - BIM Hyperreality: Data Synthesis Using BIM and Hyperrealistic Rendering
for Deep Learning [3.4461633417989184]
写真に物体認識を構築するニューラルネットワークを訓練するためのハイブリッドシステムの概念を提示する。
本論文で提示した具体的ケーススタディでは,合成データで学習したニューラルネットワークを用いて,トレーニングデータに写真を用いることなく,写真から物体を識別できることが示されている。
論文 参考訳(メタデータ) (2021-05-10T04:08:24Z) - Generative Zero-shot Network Quantization [41.75769117366117]
畳み込みニューラルネットワークは、低レベルの画像生成と復元における多数のトレーニングサンプルから現実的な画像優先度を学習することができる。
また,高レベル画像認識タスクでは,本質的バッチ正規化(bn)統計をトレーニングデータなしで活用することにより,各カテゴリの「現実的」画像をさらに再構築できることを示す。
論文 参考訳(メタデータ) (2021-01-21T04:10:04Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z) - CONFIG: Controllable Neural Face Image Generation [10.443563719622645]
ConfigNetは、出力画像の個々の側面を意味のある方法で制御できる、ニューラルフェイスモデルである。
提案手法では,合成データを用いて遅延空間を従来のレンダリングパイプラインの入力に対応する要素に分解する。
論文 参考訳(メタデータ) (2020-05-06T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。