論文の概要: Efficient Self-Ensemble Framework for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2111.13280v1
- Date: Fri, 26 Nov 2021 00:35:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 02:01:33.122189
- Title: Efficient Self-Ensemble Framework for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのための効率的な自己センブルフレームワーク
- Authors: Walid Bousselham, Guillaume Thibault, Lucas Pagano, Archana
Machireddy, Joe Gray, Young Hwan Chang, Xubo Song
- Abstract要約: セマンティックセグメンテーションを強化するために,アンサンブル手法によって提供される性能向上を活用することを提案する。
我々のセルフアンサンブルフレームワークは,特徴ピラミッドネットワーク方式によって構築されたマルチスケール機能を活用している。
我々のモデルはエンド・ツー・エンドの訓練が可能であり、アンサンブルの従来の面倒なマルチステージ・トレーニングを緩和する。
- 参考スコア(独自算出の注目度): 1.0819401241801994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensemble of predictions is known to perform better than individual
predictions taken separately. However, for tasks that require heavy
computational resources, \textit{e.g.} semantic segmentation, creating an
ensemble of learners that needs to be trained separately is hardly tractable.
In this work, we propose to leverage the performance boost offered by ensemble
methods to enhance the semantic segmentation, while avoiding the traditional
heavy training cost of the ensemble. Our self-ensemble framework takes
advantage of the multi-scale features set produced by feature pyramid network
methods to feed independent decoders, thus creating an ensemble within a single
model. Similar to the ensemble, the final prediction is the aggregation of the
prediction made by each learner. In contrast to previous works, our model can
be trained end-to-end, alleviating the traditional cumbersome multi-stage
training of ensembles. Our self-ensemble framework outperforms the current
state-of-the-art on the benchmark datasets ADE20K, Pascal Context and
COCO-Stuff-10K for semantic segmentation and is competitive on Cityscapes. Code
will be available at github.com/WalBouss/SenFormer.
- Abstract(参考訳): 予測の組み立ては個々の予測を別々に行うよりも優れていることが知られている。
しかし、重い計算資源を必要とするタスクに対しては、‘textit{e.g.} semantic segmentation, create a mblemble of learners that need be trained to be tractable.
そこで本研究では,アンサンブル方式による性能向上を活用し,従来のヘビートレーニングコストを回避しつつ,セマンティクスセグメンテーションを向上させることを提案する。
当社のself-ensembleフレームワークは,機能ピラミッドネットワークメソッドが生成するマルチスケール機能を活用して,独立したデコーダを供給し,単一モデル内にアンサンブルを作成する。
アンサンブルと同様、最終的な予測は各学習者が行った予測の集約である。
従来の作品とは対照的に,我々のモデルはエンド・ツー・エンドの訓練が可能であり,従来のアンサンブルの多段階トレーニングを緩和する。
私たちのセルフアンサンブルフレームワークは,セマンティックセグメンテーションのためのADE20K,Pascal Context,COCO-Stuff-10Kといったベンチマークデータセット上で,現在の最先端技術よりも優れています。
コードはgithub.com/WalBouss/SenFormerで入手できる。
関連論文リスト
- CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - Context-Aware Ensemble Learning for Time Series [11.716677452529114]
本稿では,ベースモデルの特徴ベクトルの結合である特徴のスーパーセットを用いて,ベースモデル予測を効果的に組み合わせたメタ学習手法を提案する。
我々のモデルは、ベースモデルの予測を機械学習アルゴリズムの入力として使用するのではなく、問題の状態に基づいて各時点における最良の組み合わせを選択する。
論文 参考訳(メタデータ) (2022-11-30T10:36:13Z) - Prompt-Matched Semantic Segmentation [96.99924127527002]
本研究の目的は、事前学習した基礎モデルを、画像意味セグメンテーションの下流の様々なタスクに効果的に適応する方法を検討することである。
本稿では,タスク指向のチューニングに適応的に視覚的プロンプトを生成するとともに,基礎モデルの本来の構造を維持できる新しい階層間プロンプトマッチングフレームワークを提案する。
次に、Semantic-aware Prompt Matcherと呼ばれる軽量モジュールを導入し、2つのステージ間で階層的に補間し、各タスクに対して適切なプロンプトを学習する。
論文 参考訳(メタデータ) (2022-08-22T09:12:53Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Parameter Decoupling Strategy for Semi-supervised 3D Left Atrium
Segmentation [0.0]
本稿では,パラメータ分離戦略に基づく半教師付きセグメンテーションモデルを提案する。
提案手法は,Atrial Challengeデータセット上での最先端の半教師付き手法と競合する結果を得た。
論文 参考訳(メタデータ) (2021-09-20T14:51:42Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Improving Tree-Structured Decoder Training for Code Generation via
Mutual Learning [27.080718377956693]
コード生成は、入力された自然言語の発話に与えられたコードを自動的に生成することを目的としている。
まず、異なるデコードを持つニューラルコード生成モデル間のコンテキストモデリングの違いを網羅的に分析する。
本稿では,これらのモデルを協調的に学習するための相互学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-31T08:44:13Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Reviving Iterative Training with Mask Guidance for Interactive
Segmentation [8.271859911016719]
クリックに基づくインタラクティブセグメンテーションに関する最近の研究は、様々な推論時間最適化スキームを用いて最先端の結果を示している。
従来のステップのセグメンテーションマスクを用いた,クリックベースのインタラクティブセグメンテーションのための簡単なフィードフォワードモデルを提案する。
COCOとLVISの組み合わせで訓練されたモデルと、多様で高品質のアノテーションは、既存のすべてのモデルよりも優れたパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。