論文の概要: Technical Report for ICRA 2025 GOOSE 2D Semantic Segmentation Challenge: Boosting Off-Road Segmentation via Photometric Distortion and Exponential Moving Average
- arxiv url: http://arxiv.org/abs/2505.11769v1
- Date: Sat, 17 May 2025 00:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.83583
- Title: Technical Report for ICRA 2025 GOOSE 2D Semantic Segmentation Challenge: Boosting Off-Road Segmentation via Photometric Distortion and Exponential Moving Average
- Title(参考訳): ICRA 2025 GOOSE 2D Semantic Segmentation Challenge: Boosting Off-Road Segmentation via Photometric Distortion and Exponential moving Average
- Authors: Wonjune Kim, Lae-kyoung Lee, Su-Yong An,
- Abstract要約: GOOSE 2D Semantic Challenge への高容量セマンティックセマンティックパイプラインの適用について報告する。
UPerNetデコーダとともにFlashInternImage-Bのバックボーンを使用して、新しいものではなく、確立したテクニックをオフロードシーンの特異な条件に適応させる。
トレーニングレシピでは,重みの指数移動平均値(EMA)と強い光度歪みの増大を組み合わせ,より一般化した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We report on the application of a high-capacity semantic segmentation pipeline to the GOOSE 2D Semantic Segmentation Challenge for unstructured off-road environments. Using a FlashInternImage-B backbone together with a UPerNet decoder, we adapt established techniques, rather than designing new ones, to the distinctive conditions of off-road scenes. Our training recipe couples strong photometric distortion augmentation (to emulate the wide lighting variations of outdoor terrain) with an Exponential Moving Average (EMA) of weights for better generalization. Using only the GOOSE training dataset, we achieve 88.8\% mIoU on the validation set.
- Abstract(参考訳): GOOSE 2D Semantic Segmentation Challenge への高容量セマンティックセマンティックセマンティックパイプラインの適用について報告する。
UPerNetデコーダとともにFlashInternImage-Bのバックボーンを使用して、新しいものではなく、確立したテクニックをオフロードシーンの特異な条件に適応させる。
トレーニングレシピでは、(屋外地形の広い照明変動をエミュレートする)強い光度歪みの増大と、より一般化した重量の指数移動平均(EMA)を組み合わせている。
GOOSEトレーニングデータセットのみを使用して、検証セットで88.8\% mIoUを達成する。
関連論文リスト
- DepthMatch: Semi-Supervised RGB-D Scene Parsing through Depth-Guided Regularization [43.974708665104565]
本稿では,RGB-Dシーン解析に特化して設計された半教師付き学習フレームワークDepthMatchを紹介する。
本稿では,RGB-D画像対におけるテクスチャと空間的特徴の潜伏関係を明らかにするために,補間パッチ混在拡大法を提案する。
また,従来の複合核融合モジュールを代替する軽量空間先行インジェクタを設計し,不均一な特徴核融合の効率を向上する。
論文 参考訳(メタデータ) (2025-05-26T14:26:31Z) - Technical Report for ICRA 2025 GOOSE 2D Semantic Segmentation Challenge: Leveraging Color Shift Correction, RoPE-Swin Backbone, and Quantile-based Label Denoising Strategy for Robust Outdoor Scene Understanding [5.430801345870568]
本報告ではICRA 2025 GOOSE 2D Semantic Challengeのためのフレームワークについて述べる。
屋外シーンを現実世界の条件下で9つの意味カテゴリーに解析することに焦点を当てている。
提案手法は,色補正,位置符号化,誤り認識復調を併用し,平均mIoU(mIoU)を0.848で達成した。
論文 参考訳(メタデータ) (2025-05-11T14:35:06Z) - Enhanced Semantic Extraction and Guidance for UGC Image Super Resolution [18.058473238611725]
本稿では,拡散フレームワークにセマンティックガイダンスを組み込むことにより,画像超解像に対する新しいアプローチを提案する。
本手法は,野生データセットと合成データセットの劣化の矛盾に対処する。
我々のモデルは、CVIRE 2025Short-form Image Super-Resolution Challengeで2位を獲得した。
論文 参考訳(メタデータ) (2025-04-14T05:26:24Z) - Physically Feasible Semantic Segmentation [58.17907376475596]
最先端セマンティックセグメンテーションモデルは通常、データ駆動方式で最適化される。
この純粋にデータ駆動のパラダイムは、特にトレーニング中に遭遇した領域から入力画像の領域がシフトした場合、しばしば不条理なセグメンテーションにつながる。
我々の方法であるPhyFea(PhyFea)は、まず、オフラインデータ駆動方式で手元に設定したセグメンテーショントレーニングから空間クラス関係を規定する明示的な制約を抽出し、これらの制約の違反を罰する形態的かつ差別的な損失を強制する。
論文 参考訳(メタデータ) (2024-08-26T22:39:08Z) - Semantic Segmentation for Real-World and Synthetic Vehicle's Forward-Facing Camera Images [0.8562182926816566]
これは、車両の前向きカメラからの実世界の画像と合成画像の両方におけるセマンティックセグメンテーション問題の解決策である。
我々は、さまざまな屋外状況の様々な領域でよく機能するロバストモデルの構築に集中する。
本稿では,意味的セグメンテーション問題における領域適応のための実世界のデータと合成データの併用の有効性について検討する。
論文 参考訳(メタデータ) (2024-07-07T17:28:45Z) - Adaptive Step-size Perception Unfolding Network with Non-local Hybrid Attention for Hyperspectral Image Reconstruction [0.39134031118910273]
FISTAアルゴリズムに基づく深層展開ネットワークであるASPUNを提案する。
さらに,非局所的ハイブリッドアテンショントランス (NHAT) モジュールを設計し,コンバータの受容場特性をフル活用する。
実験の結果, ASPUNは既存のSOTAアルゴリズムよりも優れ, 最高の性能が得られることがわかった。
論文 参考訳(メタデータ) (2024-07-04T16:09:52Z) - Solution for CVPR 2024 UG2+ Challenge Track on All Weather Semantic Segmentation [9.322345758563886]
UG2+ Challenge at CVPR 2024において, 悪天候におけるセマンティックセグメンテーションの解決法について述べる。
InternImage-Hのバックボーンを,大規模関節データセットから事前トレーニングした重み付きで初期化し,最先端のUpernetセグメンテーション手法で強化する。
提案手法は,テストセット上での高度な性能を実証し,この課題において第3位を達成している。
論文 参考訳(メタデータ) (2024-06-09T15:56:35Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Aerial Lifting: Neural Urban Semantic and Building Instance Lifting from Aerial Imagery [51.73680703579997]
航空画像から都市規模のセマンティックスとビルレベルのインスタンスセグメンテーションのためのニューラルラジアンスフィールド法を提案する。
都市空撮画像の物体は、建物、車、道路など、相当な大きさのバリエーションを示している。
我々は,様々な大きさのオブジェクトのセグメンテーションを強化する,スケール適応型セマンティックラベル融合戦略を導入する。
次に、2次元のインスタンスラベルにおける多視点不整合問題を緩和するために、新しいクロスビューインスタンスラベルグループ化戦略を導入する。
論文 参考訳(メタデータ) (2024-03-18T14:15:39Z) - GP-NeRF: Generalized Perception NeRF for Context-Aware 3D Scene Understanding [101.32590239809113]
Generalized Perception NeRF (GP-NeRF) は、広く使われているセグメンテーションモデルとNeRFを統一されたフレームワークで相互に動作させる新しいパイプラインである。
本稿では,セマンティック蒸留損失(Semantic Distill Loss)とDepth-Guided Semantic Distill Loss(Depth-Guided Semantic Distill Loss)という2つの自己蒸留機構を提案する。
論文 参考訳(メタデータ) (2023-11-20T15:59:41Z) - Refign: Align and Refine for Adaptation of Semantic Segmentation to
Adverse Conditions [78.71745819446176]
Refignは、ドメイン間の通信を利用する自己学習ベースのUDAメソッドへの汎用的な拡張である。
Refign は,(1) 不確実性を認識した高密度マッチングネットワークを用いて,正常条件画像と対応する悪条件画像とを整列させ,(2) 適応ラベル補正機構を用いて正常予測で悪条件予測を精査する。
このアプローチでは、追加のトレーニングパラメータや、トレーニングのみの計算オーバーヘッドの最小化は導入されず、任意の自己学習ベースのUDAメソッドを改善するためにドロップイン拡張として使用することができる。
論文 参考訳(メタデータ) (2022-07-14T11:30:38Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - Context-self contrastive pretraining for crop type semantic segmentation [39.81074867563505]
提案したContext-Self Contrastive Loss (CSCL)は、セマンティックバウンダリをポップアップさせる埋め込み空間を学習する。
衛星画像時系列(SITS)からの作物型セマンティックセマンティックセグメンテーションでは,サテライト境界における性能が重要なボトルネックとなる。
より粒度の高い作物のクラスを得るための超解像における意味的セグメンテーションのプロセスを提案する。
論文 参考訳(メタデータ) (2021-04-09T11:29:44Z) - Aggregated Contextual Transformations for High-Resolution Image
Inpainting [57.241749273816374]
画像の高精細化のための拡張GANモデルAggregated Contextual-Transformation GAN (AOT-GAN)を提案する。
そこで,提案するAOTブロックの複数のレイヤを積み重ねることで,AOT-GANのジェネレータを構築する。
テクスチャ合成を改善するため,AOT-GANの識別をマスク予測タスクでトレーニングすることで強化する。
論文 参考訳(メタデータ) (2021-04-03T15:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。