論文の概要: Pre-training without Natural Images
- arxiv url: http://arxiv.org/abs/2101.08515v1
- Date: Thu, 21 Jan 2021 09:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 08:02:44.668586
- Title: Pre-training without Natural Images
- Title(参考訳): 自然画像のない事前学習
- Authors: Hirokatsu Kataoka and Kazushige Okayasu and Asato Matsumoto and Eisuke
Yamagata and Ryosuke Yamada and Nakamasa Inoue and Akio Nakamura and Yutaka
Satoh
- Abstract要約: この論文は、新しい概念、公式駆動教師あり学習を提案する。
私たちは、現実世界の背景知識に存在する自然法則に基づくフラクタルを割り当てることで、画像パターンとそのカテゴリラベルを自動的に生成します。
自然画像のないデータベースであるフラクタルデータベース(fractaldb)で事前トレーニングされたモデルは、すべての設定で人間の注釈付きデータセットで事前トレーニングされたモデルを上回るものではない。
- 参考スコア(独自算出の注目度): 21.0934389974642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Is it possible to use convolutional neural networks pre-trained without any
natural images to assist natural image understanding? The paper proposes a
novel concept, Formula-driven Supervised Learning. We automatically generate
image patterns and their category labels by assigning fractals, which are based
on a natural law existing in the background knowledge of the real world.
Theoretically, the use of automatically generated images instead of natural
images in the pre-training phase allows us to generate an infinite scale
dataset of labeled images. Although the models pre-trained with the proposed
Fractal DataBase (FractalDB), a database without natural images, does not
necessarily outperform models pre-trained with human annotated datasets at all
settings, we are able to partially surpass the accuracy of ImageNet/Places
pre-trained models. The image representation with the proposed FractalDB
captures a unique feature in the visualization of convolutional layers and
attentions.
- Abstract(参考訳): 自然画像の理解を補助するために、自然画像なしで事前学習された畳み込みニューラルネットワークを使うことは可能か?
この論文は、新しい概念、公式駆動教師あり学習を提案する。
実世界の背景知識に存在する自然法則に基づいたフラクタルを割り当てることで,画像パターンとそのカテゴリラベルを自動的に生成する。
理論的には、事前学習段階で自然画像の代わりに自動生成画像を使用することで、ラベル付き画像の無限規模のデータセットを生成することができる。
自然画像のないデータベースであるフラクタルデータベース(fractaldb)で事前トレーニングされたモデルは、すべての設定で人間の注釈付きデータセットで事前トレーニングされたモデルを上回るとは限らないが、imagenet/placesプリトレーニングモデルの精度を部分的に上回ることができる。
提案するfractaldbによる画像表現は、畳み込み層と注意の可視化においてユニークな特徴を捉えている。
関連論文リスト
- Commonality in Natural Images Rescues GANs: Pretraining GANs with
Generic and Privacy-free Synthetic Data [17.8055398673228]
本稿では,自然画像の一般的な特徴に着想を得た,効果的で偏りのないデータ合成手法を提案する。
我々のシンセサイザーは、自然画像の一般的な性質のみを考慮しているため、データセット上で事前訓練された単一のモデルは、一貫して様々なターゲットデータセットに転送することができる。
論文 参考訳(メタデータ) (2022-04-11T08:51:17Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - Improving Fractal Pre-training [0.76146285961466]
動的に生成されたフラクタル画像に基づく事前学習データセットを提案する。
実験により, フラクタルを用いたネットワークの微調整は, ImageNet事前訓練ネットワークの精度の92.7-98.1%に達することが示された。
論文 参考訳(メタデータ) (2021-10-06T22:39:51Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Towards Learning a Vocabulary of Visual Concepts and Operators using
Deep Neural Networks [0.0]
我々は、MNIST画像を用いて訓練されたモデルの学習された特徴マップを分析し、より説明可能な予測を行う。
MNIST画像を用いて学習した変分オートエンコーダから視覚概念を生成する。
再建損失(平均2乗誤差)を初期値120から60に減らすことができた。
論文 参考訳(メタデータ) (2021-09-01T16:34:57Z) - Learning Topology from Synthetic Data for Unsupervised Depth Completion [66.26787962258346]
画像から高密度深度マップとスパース深度測定を推定する手法を提案する。
我々は,疎点雲と密度の高い自然形状の関係を学習し,その画像を用いて予測深度マップの検証を行う。
論文 参考訳(メタデータ) (2021-06-06T00:21:12Z) - Texture Generation with Neural Cellular Automata [64.70093734012121]
一つのテンプレート画像からテクスチャジェネレータを学習する。
NCAモデルで示される振る舞いは、テクスチャを生成するための学習された分散されたローカルアルゴリズムであると主張します。
論文 参考訳(メタデータ) (2021-05-15T22:05:46Z) - BIM Hyperreality: Data Synthesis Using BIM and Hyperrealistic Rendering
for Deep Learning [3.4461633417989184]
写真に物体認識を構築するニューラルネットワークを訓練するためのハイブリッドシステムの概念を提示する。
本論文で提示した具体的ケーススタディでは,合成データで学習したニューラルネットワークを用いて,トレーニングデータに写真を用いることなく,写真から物体を識別できることが示されている。
論文 参考訳(メタデータ) (2021-05-10T04:08:24Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Generative Zero-shot Network Quantization [41.75769117366117]
畳み込みニューラルネットワークは、低レベルの画像生成と復元における多数のトレーニングサンプルから現実的な画像優先度を学習することができる。
また,高レベル画像認識タスクでは,本質的バッチ正規化(bn)統計をトレーニングデータなしで活用することにより,各カテゴリの「現実的」画像をさらに再構築できることを示す。
論文 参考訳(メタデータ) (2021-01-21T04:10:04Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。