論文の概要: Location-Free Camouflage Generation Network
- arxiv url: http://arxiv.org/abs/2203.09845v1
- Date: Fri, 18 Mar 2022 10:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 22:19:42.754525
- Title: Location-Free Camouflage Generation Network
- Title(参考訳): ロケーションフリーカモフラージュ生成ネットワーク
- Authors: Yangyang Li, Wei Zhai, Yang Cao, Zheng-jun Zha
- Abstract要約: カモフラージュ(Camouflage)は一般的な視覚現象で、前景の物体を背景のイメージに隠すことで、人間の目からは一時的に見えなくなる。
本稿では,前景と背景像の高次特徴を融合させ,一つの推論によって結果を生成する,ロケーションフリーなカモフラージュ生成ネットワーク(LCG-Net)を提案する。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
- 参考スコア(独自算出の注目度): 82.74353843283407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camouflage is a common visual phenomenon, which refers to hiding the
foreground objects into the background images, making them briefly invisible to
the human eye. Previous work has typically been implemented by an iterative
optimization process. However, these methods struggle in 1) efficiently
generating camouflage images using foreground and background with arbitrary
structure; 2) camouflaging foreground objects to regions with multiple
appearances (e.g. the junction of the vegetation and the mountains), which
limit their practical application. To address these problems, this paper
proposes a novel Location-free Camouflage Generation Network (LCG-Net) that
fuse high-level features of foreground and background image, and generate
result by one inference. Specifically, a Position-aligned Structure Fusion
(PSF) module is devised to guide structure feature fusion based on the
point-to-point structure similarity of foreground and background, and introduce
local appearance features point-by-point. To retain the necessary identifiable
features, a new immerse loss is adopted under our pipeline, while a background
patch appearance loss is utilized to ensure that the hidden objects look
continuous and natural at regions with multiple appearances. Experiments show
that our method has results as satisfactory as state-of-the-art in the
single-appearance regions and are less likely to be completely invisible, but
far exceed the quality of the state-of-the-art in the multi-appearance regions.
Moreover, our method is hundreds of times faster than previous methods.
Benefitting from the unique advantages of our method, we provide some
downstream applications for camouflage generation, which show its potential.
The related code and dataset will be released at
https://github.com/Tale17/LCG-Net.
- Abstract(参考訳): カモフラージュ(camouflage)は、視覚現象の一種で、前景の物体を背景画像に隠して、人間の目に簡単に見えないようにする。
従来の作業は通常、反復最適化プロセスによって実装されている。
しかし これらの手法は
1) 任意の構造を有する前景及び背景を用いた迷彩画像の効率的な生成
2) 複数の外観の地域(植生と山々の合流点など)への前景オブジェクトの迷彩化は,実用的利用を制限している。
そこで本稿では,前景と背景画像の高レベル特徴を融合し,一つの推論によって結果を生成する,位置自由カモフラージュ生成ネットワーク(lcg-net)を提案する。
具体的には, 位置整列構造融合 (PSF) モジュールを, 前景と背景の点間構造的類似性に基づいて構造的特徴融合を誘導し, 局所的な外観的特徴をポイントバイポイントで導入する。
必要な特徴を維持するため,パイプラインでは新たな没入損失が採用され,背景パッチの出現損失を利用して,複数の外観を持つ領域において,隠れたオブジェクトが連続して自然に見えるようにする。
実験により,本手法は単一外観領域における最先端技術と同程度に良好であり,完全に見えない可能性が低いが,多外観領域における最先端技術の品質をはるかに上回っていることが示された。
さらに,本手法は従来の手法よりも数百倍高速である。
提案手法の独特な利点から, カモフラージュ生成のための下流アプリケーションを提供し, その可能性を示す。
関連するコードとデータセットはhttps://github.com/Tale17/LCG-Netで公開される。
関連論文リスト
- DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Rethinking the Localization in Weakly Supervised Object Localization [51.29084037301646]
弱教師付きオブジェクトローカライゼーション(WSOL)は、コンピュータビジョンにおいて最も人気があり、困難なタスクの1つである。
最近、WSOLを2つの部分(クラスに依存しないオブジェクトのローカライゼーションとオブジェクトの分類)に分割することが、このタスクの最先端のパイプラインになっている。
本研究では,SCRを複数物体の局所化のためのバイナリクラス検出器(BCD)に置き換えることを提案する。
論文 参考訳(メタデータ) (2023-08-11T14:38:51Z) - The Art of Camouflage: Few-Shot Learning for Animal Detection and Segmentation [21.047026366450197]
カモフラージュされた物体の検出とセグメンテーションにおける数ショット学習の問題に対処する。
そこで我々は, Camouflaged インスタンスを効率的に検出・分割するフレームワーク FS-CDIS を提案する。
提案手法は,新たに収集したデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-15T01:33:14Z) - Sharp Eyes: A Salient Object Detector Working The Same Way as Human
Visual Characteristics [3.222802562733787]
本稿では,まず被写体をシーンから分離し,それを細分化するシャープアイネットワーク(SENet)を提案する。
提案手法は,拡張オブジェクトを用いてネットワークを誘導し,完全な予測を行う。
論文 参考訳(メタデータ) (2023-01-18T11:00:45Z) - JPGNet: Joint Predictive Filtering and Generative Network for Image
Inpainting [21.936689731138213]
画像インパインティングは、欠落した領域を復元し、元の完全な画像と同じ回復結果を作成することを目的としている。
現存する作品は、これを純粋な生成問題とみなし、それに対応するために最先端の生成技術を採用している。
本稿では,2つの問題,すなわち予測フィルタリングと深部生成の混合として,画像のインペイントを定式化する。
論文 参考訳(メタデータ) (2021-07-09T07:49:52Z) - In-sample Contrastive Learning and Consistent Attention for Weakly
Supervised Object Localization [18.971497314227275]
弱教師付きオブジェクトローカライゼーション(WSOL)は、画像レベルの監視のみを使用して対象オブジェクトをローカライズすることを目的としている。
最近の手法は、最も識別性の高い部分を落として、オブジェクト全体の特徴マップを活性化することをモデルに推奨している。
我々は背景を,高度な対象領域をカバーするために機能活性化を導く重要な手がかりとみなす。
論文 参考訳(メタデータ) (2020-09-25T07:24:46Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。