論文の概要: FALCON: Fairness Learning via Contrastive Attention Approach to
Continual Semantic Scene Understanding in Open World
- arxiv url: http://arxiv.org/abs/2311.15965v1
- Date: Mon, 27 Nov 2023 16:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 14:30:50.142408
- Title: FALCON: Fairness Learning via Contrastive Attention Approach to
Continual Semantic Scene Understanding in Open World
- Title(参考訳): FALCON: オープンワールドにおける連続的セマンティックシーン理解へのコントラスト注意アプローチによるフェアネス学習
- Authors: Thanh-Dat Truong, Utsav Prabhu, Bhiksha Raj, Jackson Cothren, Khoa Luu
- Abstract要約: 本稿では,意味的場面理解における連続的学習へのコントラスト的意図的アプローチによるフェアネス学習を提案する。
まず、破滅的な忘れと公平さの問題に対処するために、新しいフェアネス・コントラスト・クラスタリング・ロスを導入する。
そこで本研究では,バックグラウンドシフト問題と未知のクラスを効果的にモデル化する,注目に基づく視覚文法手法を提案する。
- 参考スコア(独自算出の注目度): 30.984034111420275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning in semantic scene segmentation aims to continually learn
new unseen classes in dynamic environments while maintaining previously learned
knowledge. Prior studies focused on modeling the catastrophic forgetting and
background shift challenges in continual learning. However, fairness, another
major challenge that causes unfair predictions leading to low performance among
major and minor classes, still needs to be well addressed. In addition, prior
methods have yet to model the unknown classes well, thus resulting in producing
non-discriminative features among unknown classes. This paper presents a novel
Fairness Learning via Contrastive Attention Approach to continual learning in
semantic scene understanding. In particular, we first introduce a new Fairness
Contrastive Clustering loss to address the problems of catastrophic forgetting
and fairness. Then, we propose an attention-based visual grammar approach to
effectively model the background shift problem and unknown classes, producing
better feature representations for different unknown classes. Through our
experiments, our proposed approach achieves State-of-the-Art (SOTA) performance
on different continual learning settings of three standard benchmarks, i.e.,
ADE20K, Cityscapes, and Pascal VOC. It promotes the fairness of the continual
semantic segmentation model.
- Abstract(参考訳): セマンティクスシーンセグメンテーションにおける連続学習は、以前に学んだ知識を維持しつつ、動的環境における新しい未知のクラスを継続的に学習することを目的としている。
先行研究は、継続的学習における破滅的な忘れ方と背景シフトの課題をモデル化することに焦点を当てた。
しかし、不公平な予測を引き起こすもうひとつの大きな課題である公平さは、メジャークラスとマイナークラスのパフォーマンス低下につながっている。
さらに、以前のメソッドは未知のクラスをうまくモデル化していないため、未知のクラス間で非識別的な特徴を生成することになる。
本稿では,セマンティックシーン理解における連続学習へのコントラスト的注意アプローチによる新しいフェアネス学習を提案する。
特に,我々はまず,破滅的な忘れ方と公平性の問題に対処するために,新たなフェアネス比較クラスタリングロスを導入する。
次に,背景シフト問題と未知クラスを効果的にモデル化し,未知クラスに対してより優れた特徴表現を生成するための注意に基づく視覚的文法手法を提案する。
提案手法は,ade20k,cityscapes,pascal vocの3つの標準ベンチマークの異なる連続学習環境において,最先端(sota)性能を実現する。
継続的な意味セグメンテーションモデルの公平性を促進する。
関連論文リスト
- Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Tendency-driven Mutual Exclusivity for Weakly Supervised Incremental Semantic Segmentation [56.1776710527814]
Weakly Incremental Learning for Semantic (WILSS)は、トレーニング済みのセグメンテーションモデルを利用して、コスト効率と手軽に利用できるイメージレベルのラベルを使用して、新しいクラスをセグメンテーションする。
WILSSを解く最も一般的な方法は、各新しいクラスのシード領域の生成であり、ピクセルレベルの監視の一形態として機能する。
本研究は, 種子領域の挙動を綿密に調整した, 相互排他性に関する革新的, 傾向的関係について提案する。
論文 参考訳(メタデータ) (2024-04-18T08:23:24Z) - Heterogeneous Contrastive Learning for Foundation Models and Beyond [73.74745053250619]
ビッグデータと人工知能の時代において、新しいパラダイムは、大規模な異種データをモデル化するために、対照的な自己教師付き学習を活用することである。
本調査は基礎モデルの異種コントラスト学習の現況を批判的に評価する。
論文 参考訳(メタデータ) (2024-03-30T02:55:49Z) - Fairness Continual Learning Approach to Semantic Scene Understanding in
Open-World Environments [33.78036038343624]
本稿では,意味的セグメンテーション問題に対するフェアネス連続学習手法を提案する。
The fairness objective, a new fairness continual learning framework based on class distributions。
連続学習における重要な課題に対処するために, 新たにプロトタイプなコントラストクラスタリング損失を提案する。
論文 参考訳(メタデータ) (2023-05-25T04:16:07Z) - Activating the Discriminability of Novel Classes for Few-shot
Segmentation [48.542627940781095]
本稿では,特徴符号化段階とセグメンテーションの予測段階の両方において,新規クラスの識別可能性を明示的に活性化することを提案する。
セグメンテーションの予測段階では、クエリ画像の高信頼画素を用いて自分自身を洗練できる自己修正オンラインフォアグラウンド分類器(SROFB)を学習する。
論文 参考訳(メタデータ) (2022-12-02T12:22:36Z) - Prototypical quadruplet for few-shot class incremental learning [24.814045065163135]
改良されたコントラスト損失を用いて,より優れた埋め込み空間を同定し,分類ロバスト性を向上させる手法を提案する。
我々のアプローチは、新しいクラスで訓練された場合でも、埋め込み空間で以前獲得した知識を保っている。
提案手法の有効性は,新しいクラスでモデルを訓練した後,組込み空間がそのままであることを示すとともに,各セッションの精度で既存の最先端アルゴリズムより優れていることを示すことで実証する。
論文 参考訳(メタデータ) (2022-11-05T17:19:14Z) - Continual Attentive Fusion for Incremental Learning in Semantic
Segmentation [43.98082955427662]
勾配に基づくテクニックで訓練された深いアーキテクチャは、破滅的な忘れに苦しむ。
破滅的忘れを緩和するための新しい注意的特徴蒸留手法を導入する。
また, 蒸留損失の背景を考慮に入れた新たな手法を導入し, 偏りの予測を防止した。
論文 参考訳(メタデータ) (2022-02-01T14:38:53Z) - Continual Semantic Segmentation via Repulsion-Attraction of Sparse and
Disentangled Latent Representations [18.655840060559168]
本稿では,セマンティックセグメンテーションにおけるクラス連続学習に着目した。
新しいカテゴリは時間とともに利用可能になり、以前のトレーニングデータは保持されない。
提案された連続学習スキームは、潜在空間を形作り、新しいクラスの認識を改善しながら忘れを減らす。
論文 参考訳(メタデータ) (2021-03-10T21:02:05Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。