論文の概要: The Robust Semantic Segmentation UNCV2023 Challenge Results
- arxiv url: http://arxiv.org/abs/2309.15478v1
- Date: Wed, 27 Sep 2023 08:20:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 14:56:39.582218
- Title: The Robust Semantic Segmentation UNCV2023 Challenge Results
- Title(参考訳): ロバストな意味セグメンテーションuncv2023チャレンジ結果
- Authors: Xuanlong Yu, Yi Zuo, Zitao Wang, Xiaowen Zhang, Jiaxuan Zhao, Yuting
Yang, Licheng Jiao, Rui Peng, Xinyi Wang, Junpei Zhang, Kexin Zhang, Fang
Liu, Roberto Alcover-Couso, Juan C. SanMiguel, Marcos Escudero-Vi\~nolo,
Hanlin Tian, Kenta Matsui, Tianhao Wang, Fahmy Adan, Zhitong Gao, Xuming He,
Quentin Bouniot, Hossein Moghaddam, Shyam Nandan Rai, Fabio Cermelli, Carlo
Masone, Andrea Pilzer, Elisa Ricci, Andrei Bursuc, Arno Solin, Martin Trapp,
Rui Li, Angela Yao, Wenlong Chen, Ivor Simpson, Neill D. F. Campbell, Gianni
Franchi
- Abstract要約: 本稿では,ICCV 2023で実施されたMUAD不確実性定量化問題に対処するために用いられる勝利解について概説する。
この課題は、都市環境におけるセマンティックセグメンテーションを中心に、特に自然の敵対的なシナリオに焦点を当てた。
本報告では, 最先端の不確実性定量化手法からインスピレーションを得た19件の論文を提示する。
- 参考スコア(独自算出の注目度): 99.97867942388486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper outlines the winning solutions employed in addressing the MUAD
uncertainty quantification challenge held at ICCV 2023. The challenge was
centered around semantic segmentation in urban environments, with a particular
focus on natural adversarial scenarios. The report presents the results of 19
submitted entries, with numerous techniques drawing inspiration from
cutting-edge uncertainty quantification methodologies presented at prominent
conferences in the fields of computer vision and machine learning and journals
over the past few years. Within this document, the challenge is introduced,
shedding light on its purpose and objectives, which primarily revolved around
enhancing the robustness of semantic segmentation in urban scenes under varying
natural adversarial conditions. The report then delves into the top-performing
solutions. Moreover, the document aims to provide a comprehensive overview of
the diverse solutions deployed by all participants. By doing so, it seeks to
offer readers a deeper insight into the array of strategies that can be
leveraged to effectively handle the inherent uncertainties associated with
autonomous driving and semantic segmentation, especially within urban
environments.
- Abstract(参考訳): 本稿では,iccv 2023で開催されているmuad不確実性定量化課題の解法について概説する。
この課題は、都市環境におけるセマンティックセグメンテーションを中心に、特に自然の敵対的なシナリオに焦点を当てた。
本報告では,過去数年間のコンピュータビジョン,機械学習,ジャーナルの分野において,最先端の不確実性定量化手法から着想を得た19件の論文を提示する。
本論文では, 都市環境における意味的セグメンテーションの堅牢性向上を主眼として, 目的と目的に光を当て, 課題を提起する。
報告書はその後、トップパフォーマンスのソリューションに踏み込んだ。
さらに、この文書は、すべての参加者が展開する多様なソリューションの包括的概要を提供することを目的としている。
そうすることで、特に都市環境において、自動運転とセマンティックセグメンテーションに関連する固有の不確かさを効果的に扱うために活用できる戦略について、読者に深い洞察を提供することを目指している。
関連論文リスト
- Language-Driven Visual Consensus for Zero-Shot Semantic Segmentation [114.72734384299476]
本稿では,言語駆動型ビジュアルコンセンサス(LDVC)アプローチを提案する。
クラス埋め込みを、その離散的で抽象的な性質からアンカーとして活用し、クラス埋め込みに向けて視覚的特徴を操る。
我々の手法は、目に見えないクラスに対するセグメンテーションモデルの能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-13T11:23:55Z) - Invariant Test-Time Adaptation for Vision-Language Model Generalization [90.70743356588996]
学習可能なプロンプトを最適化するテスト時間プロンプトチューニングのパラダイムを導入し,真の因果不変性を活用できるようにモデルを説得する。
提案手法は,潜在的に誤解を招く可能性のあるタスク関連文脈情報への過度な依存を効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-01T09:01:53Z) - How to Understand "Support"? An Implicit-enhanced Causal Inference
Approach for Weakly-supervised Phrase Grounding [18.97081348819219]
WPG(Wakly-supervised Phrase Grounding)は,微粒な句領域マッチングを推定する新たな課題である。
本稿では,暗黙的な関係をモデル化する上での課題に対処するインプリシット強化因果推論手法を提案する。
論文 参考訳(メタデータ) (2024-02-29T12:49:48Z) - Description on IEEE ICME 2024 Grand Challenge: Semi-supervised Acoustic
Scene Classification under Domain Shift [28.483681147793302]
音響シーン分類(ASC)は,音響シーン解析において重要な研究課題である。
ASCタスクの課題の1つは、トレーニングとテストデータのドメインシフトである。
ICME 2024 Grand Challengeにおいて,ドメインシフトに基づく半教師付き音響シーン分類の課題を紹介した。
論文 参考訳(メタデータ) (2024-02-05T03:12:51Z) - Progressive Feature Self-reinforcement for Weakly Supervised Semantic
Segmentation [55.69128107473125]
Weakly Supervised Semantic (WSSS) のイメージレベルラベルを用いたシングルステージアプローチを提案する。
我々は、画像内容が決定論的領域(例えば、自信ある前景と背景)と不確実領域(例えば、オブジェクト境界と誤分類されたカテゴリ)に適応的に分割して、別々の処理を行う。
そこで我々は,これらの自信のある領域と同一のクラスラベルを持つ拡張画像とのセマンティック一貫性を制約する補完的な自己強調手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:21:52Z) - Semi-supervised multimodal coreference resolution in image narrations [44.66334603518387]
マルチモーダル・コア参照分解能について検討し,特に記述テキストと画像のペア化について検討した。
これは、微粒な画像テキストアライメント、物語言語に固有のあいまいさ、大きな注釈付きトレーニングセットの有効性など、大きな課題を生じさせる。
画像ナレーションペアを用いたデータ効率のよい半教師付き手法を提案する。
論文 参考訳(メタデータ) (2023-10-20T16:10:14Z) - NICE: CVPR 2023 Challenge on Zero-shot Image Captioning [149.28330263581012]
NICEプロジェクトは、堅牢な画像キャプションモデルを開発するためにコンピュータビジョンコミュニティに挑戦するために設計されている。
レポートには、新たに提案されたNICEデータセット、評価方法、課題結果、トップレベルのエントリの技術的な詳細などが含まれている。
論文 参考訳(メタデータ) (2023-09-05T05:32:19Z) - EFaR 2023: Efficient Face Recognition Competition [51.77649060180531]
バイオメトリックス国際会議(IJCB 2023)における効率的な顔認識コンペティション(EFaR)の概要について述べる。
この競技会は6つの異なるチームから17の応募を受けた。
提案したソリューションは、様々なベンチマークで達成された検証精度の重み付けスコアと、浮動小数点演算数とモデルサイズによって与えられるデプロイ可能性に基づいてランク付けされる。
論文 参考訳(メタデータ) (2023-08-08T09:58:22Z) - Multimodal Feature Extraction and Fusion for Emotional Reaction
Intensity Estimation and Expression Classification in Videos with
Transformers [47.16005553291036]
我々は,野生(ABAW)2023における2つの影響行動分析のサブチャレンジに対して,その解決策を提示する。
表現分類チャレンジでは,分類の課題を効果的に処理する合理化アプローチを提案する。
これらの特徴を研究、分析、組み合わせることで、マルチモーダルコンテキストにおける感情予測のためのモデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-03-16T09:03:17Z) - Out-of-Vocabulary Challenge Report [15.827931962904115]
Out-Of-Vocabulary 2022 (OOV) チャレンジでは、トレーニング時に見えないシーンテキストインスタンスの認識が導入されている。
コンペティションは、326,385のイメージと4,864,405のシーンテキストインスタンスからなる公開シーンテキストデータセットのコレクションをコンパイルする。
ベースラインと異なる参加者からの結果を徹底的に分析する。
論文 参考訳(メタデータ) (2022-09-14T15:25:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。