論文の概要: TogetherNet: Bridging Image Restoration and Object Detection Together
via Dynamic Enhancement Learning
- arxiv url: http://arxiv.org/abs/2209.01373v1
- Date: Sat, 3 Sep 2022 09:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:58:07.217626
- Title: TogetherNet: Bridging Image Restoration and Object Detection Together
via Dynamic Enhancement Learning
- Title(参考訳): togethernet:動的強調学習による画像復元と物体検出の橋渡し
- Authors: Yongzhen Wang, Xuefeng Yan, Kaiwen Zhang, Lina Gong, Haoran Xie, Fu
Lee Wang, Mingqiang Wei
- Abstract要約: ヘイズ、雨、雪などの逆の気象条件は、しばしば捕獲された画像の品質を損なう。
本稿では,画像復元とオブジェクト検出を橋渡しする,効果的で統一された検出パラダイムを提案する。
We show that our TogetherNet are outperforming the state-of-the-art detection approach by a large marginly and qualitatively。
- 参考スコア(独自算出の注目度): 20.312198020027957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adverse weather conditions such as haze, rain, and snow often impair the
quality of captured images, causing detection networks trained on normal images
to generalize poorly in these scenarios. In this paper, we raise an intriguing
question - if the combination of image restoration and object detection, can
boost the performance of cutting-edge detectors in adverse weather conditions.
To answer it, we propose an effective yet unified detection paradigm that
bridges these two subtasks together via dynamic enhancement learning to discern
objects in adverse weather conditions, called TogetherNet. Different from
existing efforts that intuitively apply image dehazing/deraining as a
pre-processing step, TogetherNet considers a multi-task joint learning problem.
Following the joint learning scheme, clean features produced by the restoration
network can be shared to learn better object detection in the detection
network, thus helping TogetherNet enhance the detection capacity in adverse
weather conditions. Besides the joint learning architecture, we design a new
Dynamic Transformer Feature Enhancement module to improve the feature
extraction and representation capabilities of TogetherNet. Extensive
experiments on both synthetic and real-world datasets demonstrate that our
TogetherNet outperforms the state-of-the-art detection approaches by a large
margin both quantitatively and qualitatively. Source code is available at
https://github.com/yz-wang/TogetherNet.
- Abstract(参考訳): ヘイズ、雨、雪などの逆の気象条件は、しばしば捕獲された画像の品質を損なうことがあり、通常の画像で訓練された検出ネットワークはこれらのシナリオであまり一般化しない。
本稿では,画像復元と物体検出の組み合わせによって,悪天候下での最先端検出器の性能を高めることができるという興味深い疑問を提起する。
そこで本研究では,これら2つのサブタスクを動的強化学習によって結合し,悪天候下での物体を識別する,効果的かつ統一的な検出パラダイムを提案する。
togethernetは、画像デハジング/デリーニングを前処理ステップとして直感的に適用する既存の取り組みとは異なり、マルチタスク共同学習問題を考察している。
共同学習方式に従って、復元ネットワークによって生成されたクリーンな特徴を共有して、検出ネットワークのオブジェクト検出を改善することにより、悪天候時の検出能力の向上に寄与する。
ジョイント・ラーニング・アーキテクチャの他に,新たな動的トランスフォーマー機能拡張モジュールを設計し,コネクトネットの特徴抽出と表現能力を向上させる。
合成データと実世界のデータセットの両方に関する広範な実験によって、我々のコネクターネットは、定量的にも質的にも大きなマージンで最先端検出アプローチよりも優れています。
ソースコードはhttps://github.com/yz-wang/TogetherNetで入手できる。
関連論文リスト
- D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - Transformer based Multitask Learning for Image Captioning and Object
Detection [13.340784876489927]
本研究は,画像キャプションとオブジェクト検出を結合モデルに組み合わせた,新しいマルチタスク学習フレームワークを提案する。
我々は,2つのタスクを共同で訓練するためのTICOD, Transformer-based Image Captioning, Object Detectionモデルを提案する。
我々のモデルはBERTScoreの3.65%の改善によって、画像キャプション文学のベースラインを上回ります。
論文 参考訳(メタデータ) (2024-03-10T19:31:13Z) - FriendNet: Detection-Friendly Dehazing Network [24.372610892854283]
本稿では,イメージデハジングとオブジェクト検出を,ガイダンス情報とタスク駆動学習によってブリッジする効果的なアーキテクチャを提案する。
FriendNetは、高品質な認識と高い検出能力の両方を提供することを目指している。
論文 参考訳(メタデータ) (2024-03-07T12:19:04Z) - Joint Perceptual Learning for Enhancement and Object Detection in
Underwater Scenarios [41.34564703212461]
水中物体検出と画像強調を共同で学習する二段階最適化法を提案する。
本手法は,視覚的に有利な画像と高い検出精度を出力する。
論文 参考訳(メタデータ) (2023-07-07T11:54:06Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Multi-scale Attentive Image De-raining Networks via Neural Architecture
Search [23.53770663034919]
我々は,画像デラリニングのための高性能なマルチスケール注意型ニューラルネットワーク探索(MANAS)フレームワークを開発した。
提案手法は,画像デライニング作業に好適な複数のフレキシブルモジュールを備えた,新しいマルチスケールアテンション検索空間を定式化する。
ディライニングネットワークの内部マルチスケール注意アーキテクチャは、勾配に基づく探索アルゴリズムによって自動的に探索される。
論文 参考訳(メタデータ) (2022-07-02T03:47:13Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Correlation-Aware Deep Tracking [83.51092789908677]
本稿では,自己/横断的意図に着想を得た,新たなターゲット依存型特徴ネットワークを提案する。
我々のネットワークは機能ネットワークの複数の層にクロスイメージの特徴相関を深く埋め込んでいる。
我々のモデルは、豊富な未ペア画像に対して柔軟に事前訓練が可能であり、既存の手法よりも顕著に高速な収束をもたらす。
論文 参考訳(メタデータ) (2022-03-03T11:53:54Z) - Online-updated High-order Collaborative Networks for Single Image
Deraining [51.22694467126883]
単一画像のデライン化は、ビデオ監視や自動運転システムなど、下流の人工知能アプリケーションにとって重要なタスクである。
マルチスケールのコンパクトな制約と双方向のスケール・コンテント類似性マイニングモジュールを備えた高階協調ネットワークを提案する。
提案手法は,5つの公開合成と1つの実世界のデータセットに対して,11の最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-02-14T09:09:08Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。