論文の概要: PIINET: A 360-degree Panoramic Image Inpainting Network Using a Cube Map
- arxiv url: http://arxiv.org/abs/2010.16003v2
- Date: Tue, 26 Jan 2021 05:20:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 17:11:03.014497
- Title: PIINET: A 360-degree Panoramic Image Inpainting Network Using a Cube Map
- Title(参考訳): PIINET:キューブマップを用いた360度パノラマ画像塗布ネットワーク
- Authors: Seo Woo Han, Doug Young Suh
- Abstract要約: インペイントはコンピュータビジョンの分野で継続的に研究されている。
ディープラーニング技術は塗装研究で導入され、性能向上に寄与した。
GAN(Generative Adversarial Network)を用いた360度パノラマ画像の塗装法を提案する。
- 参考スコア(独自算出の注目度): 1.3343730111342613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inpainting has been continuously studied in the field of computer vision. As
artificial intelligence technology developed, deep learning technology was
introduced in inpainting research, helping to improve performance. Currently,
the input target of an inpainting algorithm using deep learning has been
studied from a single image to a video. However, deep learning-based inpainting
technology for panoramic images has not been actively studied. We propose a
360-degree panoramic image inpainting method using generative adversarial
networks (GANs). The proposed network inputs a 360-degree equirectangular
format panoramic image converts it into a cube map format, which has relatively
little distortion and uses it as a training network. Since the cube map format
is used, the correlation of the six sides of the cube map should be considered.
Therefore, all faces of the cube map are used as input for the whole
discriminative network, and each face of the cube map is used as input for the
slice discriminative network to determine the authenticity of the generated
image. The proposed network performed qualitatively better than existing
single-image inpainting algorithms and baseline algorithms.
- Abstract(参考訳): インペイントはコンピュータビジョンの分野で継続的に研究されている。
人工知能技術の発展に伴い、深層学習技術は絵画研究に導入され、性能向上に寄与した。
現在, 深層学習を用いた塗布アルゴリズムの入力対象を, 単一の画像からビデオまで検討している。
しかし, 深層学習によるパノラマ画像の塗布技術は活発に研究されていない。
生成逆数ネットワーク(GAN)を用いた360度パノラマ画像の塗装法を提案する。
提案したネットワークは,360度の正方形パノラマ画像を入力して,比較的歪みの少ない立方体マップに変換し,トレーニングネットワークとして利用する。
立方体地図形式を用いるので、立方体地図の6辺の相関を考慮すべきである。
したがって、立方体マップの全顔が判別ネットワーク全体の入力として使用され、キューブマップの各顔がスライス判別ネットワークの入力として使用され、生成された画像の真正性を決定する。
提案するネットワークは,既存の単一画像インペインティングアルゴリズムやベースラインアルゴリズムよりも質的に優れていた。
関連論文リスト
- HVDistill: Transferring Knowledge from Images to Point Clouds via Unsupervised Hybrid-View Distillation [106.09886920774002]
本稿では,HVDistillと呼ばれるハイブリッドビューに基づく知識蒸留フレームワークを提案する。
提案手法は,スクラッチからトレーニングしたベースラインに対して一貫した改善を実現し,既存のスキームを大幅に上回っている。
論文 参考訳(メタデータ) (2024-03-18T14:18:08Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - PointMCD: Boosting Deep Point Cloud Encoders via Multi-view Cross-modal
Distillation for 3D Shape Recognition [55.38462937452363]
本稿では,教師として事前訓練されたディープイメージエンコーダ,学生としてディープポイントエンコーダを含む多視点クロスモーダル蒸留アーキテクチャを提案する。
複数ビューの視覚的および幾何学的記述子をペアワイズにアライメントすることで、より強力なディープポイントエンコーダを、疲労や複雑なネットワーク修正を伴わずに得ることができる。
論文 参考訳(メタデータ) (2022-07-07T07:23:20Z) - SaiNet: Stereo aware inpainting behind objects with generative networks [21.35917056958527]
本稿では,物体の後方に大きな欠損領域を塗布する目的で,立体一貫性のある画像に塗装するエンド・ツー・エンドのネットワークを提案する。
提案モデルは,部分的畳み込みを用いたエッジ誘導型UNet様ネットワークで構成されている。
論文 参考訳(メタデータ) (2022-05-14T09:07:30Z) - Contextual Attention Mechanism, SRGAN Based Inpainting System for
Eliminating Interruptions from Images [2.894944733573589]
完全な機械学習アプローチを用いて,画像のインペイントのためのエンドツーエンドパイプラインを提案する。
まず、YOLOモデルを使用して、画像から削除したいオブジェクトを自動的に識別し、ローカライズします。
その後、領域を埋めるためにコンテキストアテンション法を用いたGANモデルにマスク画像とオリジナル画像を提供する。
論文 参考訳(メタデータ) (2022-04-06T05:51:04Z) - Graph Jigsaw Learning for Cartoon Face Recognition [79.29656077338828]
畳み込みニューラルネットワーク(CNN)を用いたマンガ顔認識のための形状指向表現の学習は困難である
分類ネットワークの様々な段階においてジグソーパズルを構築し,グラフ畳み込みネットワーク(GCN)を段階的に解くグラフJigsawを提案する。
提案したグラフJigsawは、2つの人気のあるマンガの顔データセットにおいて、他の顔認識やジグソーベースの手法よりも一貫して優れています。
論文 参考訳(メタデータ) (2021-07-14T08:01:06Z) - White Box Methods for Explanations of Convolutional Neural Networks in
Image Classification Tasks [3.3959642559854357]
畳み込みニューラルネットワーク(CNN)は,画像分類作業における技術性能の状態を実証している。
ネットワークによる予測の背後にある推論を理解するために、いくつかのアプローチが提案されている。
我々は、ネットワークの内部アーキテクチャの情報を利用してその決定を説明するホワイトボックスメソッドに重点を置いている。
論文 参考訳(メタデータ) (2021-04-06T14:40:00Z) - Deep Gradient Projection Networks for Pan-sharpening [20.929492740317915]
本稿では,モデルに基づくディープパンシャーピング手法を提案する。
2つのブロックを積み重ねることで、グラデーションプロジェクションベースのパンスハーピングニューラルネットワークと呼ばれる新しいネットワークが構築される。
さまざまな種類の衛星データセットの実験結果は、新しいネットワークが視覚的および定量的に最先端の方法よりも優れていることを示しています。
論文 参考訳(メタデータ) (2021-03-08T07:51:58Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。