論文の概要: NTIRE 2021 Multi-modal Aerial View Object Classification Challenge
- arxiv url: http://arxiv.org/abs/2107.01189v1
- Date: Fri, 2 Jul 2021 16:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 13:59:55.330052
- Title: NTIRE 2021 Multi-modal Aerial View Object Classification Challenge
- Title(参考訳): NTIRE 2021 Multi-modal Aerial View Object Classification Challenge
- Authors: Jerrick Liu, Nathan Inkawhich, Oliver Nina, Radu Timofte, Sahil Jain,
Bob Lee, Yuru Duan, Wei Wei, Lei Zhang, Songzheng Xu, Yuxuan Sun, Jiaqi Tang,
Xueli Geng, Mengru Ma, Gongzhe Li, Xueli Geng, Huanqia Cai, Chengxue Cai, Sol
Cummings, Casian Miron, Alexandru Pasarica, Cheng-Yen Yang, Hung-Min Hsu,
Jiarui Cai, Jie Mei, Chia-Ying Yeh, Jenq-Neng Hwang, Michael Xin, Zhongkai
Shangguan, Zihe Zheng, Xu Yifei, Lehan Yang, Kele Xu, Min Feng
- Abstract要約: CVPR の NTIRE 2021 ワークショップと共同で,MAVOC (Multi-modal Aerial View Object Classification) の最初の挑戦を紹介した。
この課題は、EOとSAR画像を用いた2つの異なるトラックで構成されている。
本コンペティションで提案した最上位の手法について検討し,その成果を目視テストセットで評価する。
- 参考スコア(独自算出の注目度): 88.89190054948325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce the first Challenge on Multi-modal Aerial View
Object Classification (MAVOC) in conjunction with the NTIRE 2021 workshop at
CVPR. This challenge is composed of two different tracks using EO andSAR
imagery. Both EO and SAR sensors possess different advantages and drawbacks.
The purpose of this competition is to analyze how to use both sets of sensory
information in complementary ways. We discuss the top methods submitted for
this competition and evaluate their results on our blind test set. Our
challenge results show significant improvement of more than 15% accuracy from
our current baselines for each track of the competition
- Abstract(参考訳): 本稿では,CVPR における NTIRE 2021 ワークショップと合わせて,MAVOC (Multi-modal Aerial View Object Classification) の最初の挑戦を紹介する。
この課題は、EOとSAR画像を用いた2つの異なるトラックで構成されている。
EOとSARのセンサーには、それぞれ異なる利点と欠点がある。
この競争の目的は、両方の感覚情報を相補的に利用する方法を分析することである。
本コンペティションに提案した上位手法について論じ,その成果を盲点テストセットで評価する。
我々の挑戦結果は、競技のトラック毎の現在のベースラインから15%以上精度が向上したことを示している。
関連論文リスト
- AIM 2024 Sparse Neural Rendering Challenge: Methods and Results [64.19942455360068]
本稿では,ECCV 2024と共同で開催されるAIM(Advanceds in Image Manipulation)ワークショップの一部であるスパースニューラルレンダリングの課題についてレビューする。
この課題は、スパース画像から多様なシーンを合成する新しいカメラビューを作ることである。
参加者は、Pak Signal-to-Noise Ratio (PSNR) 測定によって測定された地中真実像に対する客観的忠実度を最適化するよう依頼される。
論文 参考訳(メタデータ) (2024-09-23T14:17:40Z) - Technical Report for CVPR 2024 WeatherProof Dataset Challenge: Semantic Segmentation on Paired Real Data [9.128113804878959]
この課題は、世界中の様々な天候によって劣化した画像のセマンティックセグメンテーションを目標とする。
我々は、インターンイメージ(InternImage)という訓練済みの大規模視覚基盤モデルを導入し、異なるレベルのノイズを持つ画像を用いて訓練した。
その結果、45.1mIOUで2位となり、他の優勝者より少なかった。
論文 参考訳(メタデータ) (2024-06-09T17:08:07Z) - NTIRE 2022 Challenge on Perceptual Image Quality Assessment [90.04931572825859]
画像品質評価(IQA)におけるNTIRE 2022の課題について報告する。
この課題は、知覚画像処理アルゴリズムによるIQAの新たな課題に対処するためである。
当選方法は、最先端の性能を示すことができる。
論文 参考訳(メタデータ) (2022-06-23T13:36:49Z) - Analysing Affective Behavior in the second ABAW2 Competition [70.86998050535944]
ABAW2 2021コンペティションは、IEEE FG 2020-コンペティションと共同で開催された最初の非常に成功したABAWコンペティションに続く第2回である。
論文 参考訳(メタデータ) (2021-06-14T11:30:19Z) - NTIRE 2020 Challenge on Real-World Image Super-Resolution: Methods and
Results [148.54397669654958]
本稿は,NTIRE 2020における現実世界の超解像に関する課題を概観する。
この課題は、真の高解像度画像と低解像度画像のペアが利用できない現実世界の設定に対処する。
合計22チームが最終テストフェーズに出場し、この問題に対する新しい革新的な解決策を実証した。
論文 参考訳(メタデータ) (2020-05-05T08:17:04Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。