論文の概要: When Super-Resolution Meets Camouflaged Object Detection: A Comparison
Study
- arxiv url: http://arxiv.org/abs/2308.04370v1
- Date: Tue, 8 Aug 2023 16:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:05:34.153321
- Title: When Super-Resolution Meets Camouflaged Object Detection: A Comparison
Study
- Title(参考訳): 超解像におけるカモフラーゲ型物体検出 : 比較検討
- Authors: Juan Wen, Shupeng Cheng, Peng Xu, Bowen Zhou, Radu Timofte, Weiyan
Hou, Luc Van Gool
- Abstract要約: Super Resolution (SR) と Camouflaged Object Detection (COD) は、コンピュータビジョンにおける様々なジョイントアプリケーションとのホットトピックである。
我々は、一般的なCODデータセット上で異なる超解像法をベンチマークする。
SR法により処理されたCODデータを用いて,異なるCODモデルのロバスト性を評価する。
- 参考スコア(独自算出の注目度): 135.19004496785408
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Super Resolution (SR) and Camouflaged Object Detection (COD) are two hot
topics in computer vision with various joint applications. For instance,
low-resolution surveillance images can be successively processed by
super-resolution techniques and camouflaged object detection. However, in
previous work, these two areas are always studied in isolation. In this paper,
we, for the first time, conduct an integrated comparative evaluation for both.
Specifically, we benchmark different super-resolution methods on commonly used
COD datasets, and meanwhile, we evaluate the robustness of different COD models
by using COD data processed by SR methods. Our goal is to bridge these two
domains, discover novel experimental phenomena, summarize new experim.
- Abstract(参考訳): Super Resolution (SR) と Camouflaged Object Detection (COD) は、コンピュータビジョンにおける様々なジョイントアプリケーションとのホットトピックである。
例えば、低解像度の監視画像は、超高解像度技術と擬似物体検出によって順次処理することができる。
しかし、以前の研究では、この2つの領域は常に孤立して研究されている。
本稿では, 両者の総合的な比較評価を初めて実施する。
具体的には,一般的なcodデータセット上で異なる超解像法をベンチマークし,sr法で処理したcodデータを用いて,異なるcodモデルのロバスト性を評価する。
私たちの目標は、これらの2つの領域を橋渡し、新しい実験現象を発見し、新しい経験をまとめることです。
関連論文リスト
- Better "CMOS" Produces Clearer Images: Learning Space-Variant Blur
Estimation for Blind Image Super-Resolution [30.816546273417774]
我々は、空のぼかしを持つ2つの新しいデータセット、すなわちNYUv2-BSRとCityscapes-BSRを導入する。
データセットに基づいて,ブラーとセマンティクスを同時に推定するクロスモーダルファシオンネットワーク(CMOS)を設計する。
論文 参考訳(メタデータ) (2023-04-07T08:40:31Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - Dual-Camera Super-Resolution with Aligned Attention Modules [56.54073689003269]
デュアルカメラ・スーパーレゾリューション(DCSR)に着目したレファレンスベース・スーパーレゾリューション(RefSR)への新しいアプローチを提案する。
提案手法は,空間アライメント操作と標準パッチベースの特徴マッチングを一般化する。
実世界の画像とトレーニング画像の領域ギャップを埋めるために,自己監督型領域適応戦略を提案する。
論文 参考訳(メタデータ) (2021-09-03T07:17:31Z) - Ensemble and Random Collaborative Representation-Based Anomaly Detector
for Hyperspectral Imagery [133.83048723991462]
ハイパースペクトル異常検出(HAD)のための新しいアンサンブルおよびランダム共同表現型検出器(ERCRD)を提案する。
4つの実超スペクトルデータセットを用いた実験により,提案手法の精度と効率を10段階法と比較した。
論文 参考訳(メタデータ) (2021-01-06T11:23:51Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - A Novel Inspection System For Variable Data Printing Using Deep Learning [0.9176056742068814]
超低偽アラームレート(0.005%)で可変データプリント(VDP)を検査するための新しい手法を提案する。
このシステムは、参照画像と低コストスキャナーによってキャプチャされた画像の2つの画像の比較に基づいている。
論文 参考訳(メタデータ) (2020-01-13T15:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。