論文の概要: Review Neural Networks about Image Transformation Based on IGC Learning
Framework with Annotated Information
- arxiv url: http://arxiv.org/abs/2206.10155v1
- Date: Tue, 21 Jun 2022 07:27:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 05:22:49.023144
- Title: Review Neural Networks about Image Transformation Based on IGC Learning
Framework with Annotated Information
- Title(参考訳): 注釈情報を用いたigc学習フレームワークに基づく画像変換に関するニューラルネットワークの検討
- Authors: Yuanjie Yan, Suorong Yang, Yan Wang, Jian Zhao, Furao Shen
- Abstract要約: コンピュータビジョン(CV)では、多くの問題が画像変換タスク(セマンティックセグメンテーションやスタイル転送など)と見なすことができる。
一部の調査では、画像変換の一分野であるスタイル変換やイメージ・ツー・イメージ変換の研究についてのみレビューしている。
本稿では,独立学習,指導学習,協調学習を含む新しい学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.317099281011515
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Image transformation, a class of vision and graphics problems whose goal is
to learn the mapping between an input image and an output image, develops
rapidly in the context of deep neural networks. In Computer Vision (CV), many
problems can be regarded as the image transformation task, e.g., semantic
segmentation and style transfer. These works have different topics and
motivations, making the image transformation task flourishing. Some surveys
only review the research on style transfer or image-to-image translation, all
of which are just a branch of image transformation. However, none of the
surveys summarize those works together in a unified framework to our best
knowledge. This paper proposes a novel learning framework including Independent
learning, Guided learning, and Cooperative learning, called the IGC learning
framework. The image transformation we discuss mainly involves the general
image-to-image translation and style transfer about deep neural networks. From
the perspective of this framework, we review those subtasks and give a unified
interpretation of various scenarios. We categorize related subtasks about the
image transformation according to similar development trends. Furthermore,
experiments have been performed to verify the effectiveness of IGC learning.
Finally, new research directions and open problems are discussed for future
research.
- Abstract(参考訳): 画像変換は、入力画像と出力画像の間のマッピングを学習することを目的としている視覚とグラフィックスの問題のクラスであり、ディープニューラルネットワークの文脈で急速に発展する。
コンピュータビジョン(CV)では、多くの問題が画像変換タスク(セマンティックセグメンテーションやスタイル転送など)とみなすことができる。
これらの作品は異なるトピックやモチベーションを持ち、画像変換タスクを繁栄させる。
いくつかの調査は、画像変換の一分野であるスタイル転送や画像から画像への変換の研究のみをレビューしている。
しかしながら、これらの調査はいずれも、最高の知識を統一したフレームワークでまとめられたものではない。
本稿では,独立学習,指導学習,協調学習を含む新しい学習フレームワークであるIGC学習フレームワークを提案する。
私たちが議論する画像変換は主に、ディープニューラルネットワークに関する一般的な画像から画像への変換とスタイル転送を含む。
このフレームワークの観点から、これらのサブタスクをレビューし、様々なシナリオを統一的に解釈する。
画像変換に関する関連するサブタスクを,同様の開発動向に従って分類する。
さらに, IGC学習の有効性を検証する実験も行われている。
最後に,今後の研究の方向性と課題について考察する。
関連論文リスト
- Deep Image Deblurring: A Survey [165.32391279761006]
低レベルのコンピュータビジョンにおいて、デブロアリングは古典的な問題であり、ぼやけた入力画像からシャープなイメージを復元することを目的としている。
近年のディープラーニングの進歩は、この問題の解決に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2022-01-26T01:31:30Z) - Integrating Visuospatial, Linguistic and Commonsense Structure into
Story Visualization [81.26077816854449]
まず、構造的入力を符号化するための選挙区解析木の利用について検討する。
第二に、構造化されたインプットをコモンセンス情報で強化し、この外部知識が視覚的ストーリーの生成に与える影響について検討する。
第3に、境界ボックスと高密度キャプションによって視覚構造を組み込んで、生成された画像の文字やオブジェクトに関するフィードバックを提供する。
論文 参考訳(メタデータ) (2021-10-21T00:16:02Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Unsupervised Image Transformation Learning via Generative Adversarial
Networks [40.84518581293321]
GAN(Generative Adversarial Networks)を用いた画像集合から基底変換を学習して画像変換問題を研究する。
本稿では,生成元と識別器が共有する変換空間に画像を投影する,教師なし学習フレームワークTrGANを提案する。
論文 参考訳(メタデータ) (2021-03-13T17:08:19Z) - Comparative evaluation of CNN architectures for Image Caption Generation [1.2183405753834562]
2つの人気のある画像キャプチャ生成フレームワークで17種類の畳み込みニューラルネットワークを評価した。
我々は、畳み込みニューラルネットワークのモデルの複雑さをパラメータ数で測定し、オブジェクト認識タスクにおけるモデルの精度は、必ずしも画像キャプション生成タスクの機能抽出に対する効果と相関するとは限らないことを観察する。
論文 参考訳(メタデータ) (2021-02-23T05:43:54Z) - Cross-View Image Synthesis with Deformable Convolution and Attention
Mechanism [29.528402825356398]
本稿では、変形可能な畳み込みとアテンション機構に基づくGAN(Generative Adversarial Networks)を用いて、クロスビュー画像合成の問題を解決することを提案する。
シーンの外観や意味情報を他の視点から理解し、変換することは困難であり、U-netネットワークにおける変形畳み込みを用いて、異なるスケールのオブジェクトの特徴を抽出するネットワークの能力を向上させる。
論文 参考訳(メタデータ) (2020-07-20T03:08:36Z) - Structural-analogy from a Single Image Pair [118.61885732829117]
本稿では,1対の画像A,Bのみを用いて,ニューラルネットワークによる画像構造理解能力について検討する。
我々は、B の外観とスタイルを保持するが、A に対応する構造的配置を持つ画像を生成する。
提案手法は,画像AとBのみを利用した条件生成タスクにおいて,高品質な画像を生成するために利用できる。
論文 参考訳(メタデータ) (2020-04-05T14:51:10Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。