論文の概要: Tilted Cross Entropy (TCE): Promoting Fairness in Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2103.14051v1
- Date: Thu, 25 Mar 2021 18:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 13:00:43.490394
- Title: Tilted Cross Entropy (TCE): Promoting Fairness in Semantic Segmentation
- Title(参考訳): TCE(Tilted Cross Entropy) : セマンティックセグメンテーションにおけるフェアネスの促進
- Authors: Attila Szabo, Hadi Jamali-Rad, Siva-Datta Mannava
- Abstract要約: 傾斜クロスエントロピー(TCE)損失を提案し,セマンティックセグメンテーション設定に適応することで,対象クラス間の性能格差を最小限に抑える。
セマンティックセグメンテーションのためのTCEは,マルチクラスのクロスエントロピーで学習したCityscapesとADE20kデータセットの低パフォーマンスクラスを効率的に改善できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional empirical risk minimization (ERM) for semantic segmentation can
disproportionately advantage or disadvantage certain target classes in favor of
an (unfair but) improved overall performance. Inspired by the recently
introduced tilted ERM (TERM), we propose tilted cross-entropy (TCE) loss and
adapt it to the semantic segmentation setting to minimize performance disparity
among target classes and promote fairness. Through quantitative and qualitative
performance analyses, we demonstrate that the proposed Stochastic TCE for
semantic segmentation can efficiently improve the low-performing classes of
Cityscapes and ADE20k datasets trained with multi-class cross-entropy (MCCE),
and also results in improved overall fairness.
- Abstract(参考訳): セマンティックセグメンテーションのための従来の経験的リスク最小化(erm)は、(不公平だが)全体的なパフォーマンスを改善するために、不釣り合いに有利あるいは特定のターゲットクラスを不利にする可能性がある。
最近導入された傾斜ERM(Tinted ERM)に触発されて、傾斜したクロスエントロピー(TCE)損失を提案し、それをセマンティックセグメンテーション設定に適応させ、ターゲットクラス間の性能格差を最小化し、公平性を促進する。
意味的セグメンテーションのためのStochastic TCEは,定量的かつ定性的な性能解析により,マルチクラスクロスエントロピー(MCCE)で訓練したCityscapesとADE20kデータセットの低パフォーマンスクラスを効率的に改善し,全体的な公平性を向上させることを実証した。
関連論文リスト
- IPSeg: Image Posterior Mitigates Semantic Drift in Class-Incremental Segmentation [77.06177202334398]
CISSにおけるセマンティックドリフトとデグレード性能に寄与する2つの重要な課題を特定した。
まず、モデルの異なる部分が異なる漸進的な段階に最適化されるという、別々の最適化の問題を強調します。
第二に、不適切な擬似ラベルから生じる雑音のセマンティクスを同定し、その結果、準最適結果が得られる。
論文 参考訳(メタデータ) (2025-02-07T12:19:37Z) - Class Distance Weighted Cross Entropy Loss for Classification of Disease Severity [2.7574609288882312]
新たな損失関数であるクラス距離重み付きクロスエントロピー(CDW-CE)を提案する。
これは、予測されたクラスと実際のクラスが遠く離れているときに、誤分類をより厳しく罰する。
以上の結果から,CDW-CEは日常的な画像分類タスクの性能を一貫して向上させることがわかった。
論文 参考訳(メタデータ) (2024-12-02T08:06:14Z) - Gradient constrained sharpness-aware prompt learning for vision-language
models [99.74832984957025]
本稿では,視覚言語モデル(VLM)の一般化可能な即時学習における新たなトレードオフ問題を提案する。
最先端手法のロスランドスケープとSAMに基づくバニラシャープネス認識最小化法を解析することにより、トレードオフ性能は損失値と損失シャープネスの両方に相関していると結論付けた。
本稿では,GCSCoOp (Gradient Constrained Sharpness-Aware Context Optimization) と表記される,素早い学習のためのSAMベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T17:13:54Z) - Identical and Fraternal Twins: Fine-Grained Semantic Contrastive
Learning of Sentence Representations [6.265789210037749]
コントラスト学習フレームワークのIdentical Twins と Fraternal Twins を導入する。
また,提案したツインズ・ロスの有効性を証明するために,概念実証実験と対照的な目的を組み合わせる。
論文 参考訳(メタデータ) (2023-07-20T15:02:42Z) - Logit Margin Matters: Improving Transferable Targeted Adversarial Attack
by Logit Calibration [85.71545080119026]
クロスエントロピー(CE)損失関数は、伝達可能な標的対向例を学習するには不十分である。
本稿では,ロジットを温度係数と適応マージンでダウンスケールすることで,ロジットのキャリブレーションを簡易かつ効果的に行う2つの手法を提案する。
ImageNetデータセットを用いて実験を行い,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-03-07T06:42:52Z) - Semi-Supervised Confidence-Level-based Contrastive Discrimination for
Class-Imbalanced Semantic Segmentation [1.713291434132985]
我々は,クラス不均衡なセマンティックセグメンテーションの課題に対して,半教師付きコントラスト学習フレームワークを提案する。
提案手法は,3.5%のラベル付きデータで良好なセグメンテーション結果が得られる。
論文 参考訳(メタデータ) (2022-11-28T04:58:27Z) - On Tilted Losses in Machine Learning: Theory and Applications [26.87656095874882]
指数傾き(英: Exponential tilting)は、統計学、確率、情報理論、最適化などの分野で一般的に用いられる技法である。
本研究では、指数傾斜を用いて個人損失の影響を柔軟に調整するEMMへの簡単な拡張について検討する。
フレームワークはEMMを一貫して上回り、最先端の、問題固有のアプローチと競合するパフォーマンスを提供できることが分かりました。
論文 参考訳(メタデータ) (2021-09-13T17:33:42Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - Spatial Contrastive Learning for Few-Shot Classification [9.66840768820136]
局所的識別性およびクラス非依存性の特徴を学習するための新しい注意に基づく空間コントラスト目標を提案する。
実験により,提案手法は最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-12-26T23:39:41Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。