論文の概要: Classifier Enhancement Using Extended Context and Domain Experts for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2510.25174v1
- Date: Wed, 29 Oct 2025 05:17:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.089449
- Title: Classifier Enhancement Using Extended Context and Domain Experts for Semantic Segmentation
- Title(参考訳): セマンティックセグメンテーションのための拡張コンテキストとドメインエキスパートを用いた分類器の強化
- Authors: Huadong Tang, Youpeng Zhao, Min Xu, Jun Wang, Qiang Wu,
- Abstract要約: 本研究では,グローバル(データセットレベル)とローカル(イメージレベル)のコンテキスト情報を用いて分類器を動的に調整する拡張コンテキスト認識(ECAC)を提案する。
ECACはADE20K、COCO-Stuff10K、Pascal-Contextなど、いくつかのデータセットで最先端のパフォーマンスを実現することができる。
- 参考スコア(独自算出の注目度): 16.76156233696562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prevalent semantic segmentation methods generally adopt a vanilla classifier to categorize each pixel into specific classes. Although such a classifier learns global information from the training data, this information is represented by a set of fixed parameters (weights and biases). However, each image has a different class distribution, which prevents the classifier from addressing the unique characteristics of individual images. At the dataset level, class imbalance leads to segmentation results being biased towards majority classes, limiting the model's effectiveness in identifying and segmenting minority class regions. In this paper, we propose an Extended Context-Aware Classifier (ECAC) that dynamically adjusts the classifier using global (dataset-level) and local (image-level) contextual information. Specifically, we leverage a memory bank to learn dataset-level contextual information of each class, incorporating the class-specific contextual information from the current image to improve the classifier for precise pixel labeling. Additionally, a teacher-student network paradigm is adopted, where the domain expert (teacher network) dynamically adjusts contextual information with ground truth and transfers knowledge to the student network. Comprehensive experiments illustrate that the proposed ECAC can achieve state-of-the-art performance across several datasets, including ADE20K, COCO-Stuff10K, and Pascal-Context.
- Abstract(参考訳): 一般的なセマンティックセグメンテーション法は一般的に、各ピクセルを特定のクラスに分類するためにバニラ分類器を用いる。
このような分類器はトレーニングデータからグローバル情報を学習するが、この情報は固定パラメータ(重みと偏り)の集合で表される。
しかし,各画像はクラス分布が異なるため,個々の画像の特徴に対処することができない。
データセットレベルでは、クラス不均衡は、セグメンテーション結果が多数派クラスに偏り、マイノリティクラス領域の特定とセグメンテーションにおけるモデルの有効性を制限します。
本稿では,グローバル(データセットレベル)とローカル(イメージレベル)のコンテキスト情報を用いて分類器を動的に調整する拡張コンテキスト認識分類器(ECAC)を提案する。
具体的には、メモリバンクを利用して各クラスのデータセットレベルのコンテキスト情報を学習し、現在の画像からクラス固有のコンテキスト情報を取り入れ、正確なピクセルラベリングのための分類器を改善する。
さらに、教師-学生ネットワークパラダイムを採用し、ドメインエキスパート(教師ネットワーク)が文脈情報を地上の真実で動的に調整し、学生ネットワークに知識を伝達する。
包括的な実験は、提案されたECACがADE20K、COCO-Stuff10K、Pascal-Contextを含む複数のデータセットで最先端のパフォーマンスを達成可能であることを示している。
関連論文リスト
- Towards Realistic Zero-Shot Classification via Self Structural Semantic
Alignment [53.2701026843921]
大規模事前訓練型視覚言語モデル(VLM)はゼロショット分類に有効であることが証明されている。
本稿では,アノテーションではなく,より広い語彙を前提とした,より難易度の高いゼロショット分類(Realistic Zero-Shot Classification)を提案する。
本稿では,ラベルのないデータから構造意味情報を抽出し,同時に自己学習を行う自己構造意味アライメント(S3A)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T17:56:46Z) - Boosting Semantic Segmentation from the Perspective of Explicit Class
Embeddings [19.997929884477628]
クラス埋め込みのメカニズムを探求し、クラスマスクに基づいてより明示的で意味のあるクラス埋め込みを生成することができるという知見を得る。
マルチステージ画像特徴との相互作用において,クラス埋め込みを明示的に獲得・拡張する新たなセグメンテーションパラダイムであるECENetを提案する。
ECENetはADE20Kデータセットよりもはるかに少ない計算コストでパフォーマンスを向上し、PASCAL-Contextデータセット上で新たな最先端結果を達成する。
論文 参考訳(メタデータ) (2023-08-24T16:16:10Z) - Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - Navigating Alignment for Non-identical Client Class Sets: A Label
Name-Anchored Federated Learning Framework [26.902679793955972]
FedAlignはラベルとデータの観点からクライアント間の遅延スペースを調整する新しいフレームワークである。
ラベルの観点からは、表現力のある自然言語クラス名をラベルエンコーダの共通基盤として活用し、クラス表現をアンカーする。
データの観点からは、グローバルクラス表現をアンカーとみなし、局所的に知らないクラスのアンカーに十分近い、あるいは遠くにあるデータポイントを活用して、クライアント間でデータエンコーダを整列させる。
論文 参考訳(メタデータ) (2023-01-01T23:17:30Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Mining Contextual Information Beyond Image for Semantic Segmentation [37.783233906684444]
セマンティックイメージセグメンテーションにおける文脈集約問題について検討する。
個々の画像以外の文脈情報をマイニングして、ピクセル表現をさらに強化することを提案する。
提案手法は,既存のセグメンテーションフレームワークに強制的に組み込むことができる。
論文 参考訳(メタデータ) (2021-08-26T14:34:23Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - Training CNN Classifiers for Semantic Segmentation using Partially
Annotated Images: with Application on Human Thigh and Calf MRI [0.0]
複数のデータセットに異質にアノテートされた全てのラベルクラスをセグメント化する際に、一つの分類器を訓練する一連の戦略を提案する。
本研究は,画像モダリティと解剖学的領域をまたいだトレーニングと推論の効率を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2020-08-16T23:38:02Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。