論文の概要: Asymptotic Midpoint Mixup for Margin Balancing and Moderate Broadening
- arxiv url: http://arxiv.org/abs/2401.14696v1
- Date: Fri, 26 Jan 2024 07:36:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:37:16.793462
- Title: Asymptotic Midpoint Mixup for Margin Balancing and Moderate Broadening
- Title(参考訳): マルジンバランスとモデレートブロードニングのための漸近的中点混合法
- Authors: Hoyong Kim, Semi Lee, Kangil Kim
- Abstract要約: 特徴空間では、特徴間の崩壊は表現学習における重要な問題を引き起こす。
そこで我々は,より優れた機能拡張手法であるミドルポイント・ミックスアップを提案する。
可視化表現を用いたアライメントと均一性の測定により, 崩壊効果を実証的に解析した。
- 参考スコア(独自算出の注目度): 4.604003661048267
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the feature space, the collapse between features invokes critical problems
in representation learning by remaining the features undistinguished.
Interpolation-based augmentation methods such as mixup have shown their
effectiveness in relieving the collapse problem between different classes,
called inter-class collapse. However, intra-class collapse raised in
coarse-to-fine transfer learning has not been discussed in the augmentation
approach. To address them, we propose a better feature augmentation method,
asymptotic midpoint mixup. The method generates augmented features by
interpolation but gradually moves them toward the midpoint of inter-class
feature pairs. As a result, the method induces two effects: 1) balancing the
margin for all classes and 2) only moderately broadening the margin until it
holds maximal confidence. We empirically analyze the collapse effects by
measuring alignment and uniformity with visualizing representations. Then, we
validate the intra-class collapse effects in coarse-to-fine transfer learning
and the inter-class collapse effects in imbalanced learning on long-tailed
datasets. In both tasks, our method shows better performance than other
augmentation methods.
- Abstract(参考訳): 特徴空間において、特徴間の崩壊は、特徴を区別しないまま残すことによって、表現学習における重要な問題を引き起こす。
mixupのような補間に基づく拡張法は、クラス間崩壊と呼ばれる異なるクラス間の崩壊問題を緩和する効果を示している。
しかし, 粗小転校学習におけるクラス内崩壊は, 増補的アプローチでは議論されていない。
そこで本研究では,より優れた機能拡張手法である漸近的中点混合法を提案する。
補間により拡張特徴を生成するが、徐々にクラス間特徴対の中点に向かって移動させる。
その結果、この方法は2つの効果を誘導する。
1)全クラスのマージンのバランスをとること
2) 限界を緩やかに広げるだけで、最大信頼が得られる。
可視化表現を用いたアライメントと均一性の測定により, 崩壊効果を実証的に解析した。
次に,ロングテールデータセットにおけるクラス内崩壊効果と不均衡学習におけるクラス間崩壊効果を検証する。
いずれのタスクにおいても,提案手法は他の拡張手法よりも優れた性能を示す。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Robust Feature Learning and Global Variance-Driven Classifier Alignment
for Long-Tail Class Incremental Learning [20.267257778779992]
本稿では,長期クラスインクリメンタルラーニングの強化を目的とした2段階フレームワークを提案する。
本研究は,ロングテールクラスインクリメンタルラーニングにおいて,テールクラスの表現不足がもたらす課題に対処する。
提案するフレームワークは,任意のクラスインクリメンタル学習メソッドをモジュールとしてシームレスに統合することができる。
論文 参考訳(メタデータ) (2023-11-02T13:28:53Z) - Neural Collapse Terminus: A Unified Solution for Class Incremental
Learning and Its Variants [166.916517335816]
本稿では,3つの課題における不整合ジレンマに対する統一解を提案する。
ラベル空間全体の最大等角的クラス間分離を有する固定構造である神経崩壊終端を提案する。
本手法は,データ不均衡やデータ不足にかかわらず,神経崩壊最適度を漸進的に保持する。
論文 参考訳(メタデータ) (2023-08-03T13:09:59Z) - Improving Adversarial Transferability via Intermediate-level
Perturbation Decay [79.07074710460012]
我々は,一段階の最適化で敵の例を再現する新しい中間レベル手法を開発した。
実験結果から, 種々の犠牲者モデルに対する攻撃において, 最先端技術よりも大きな差が認められた。
論文 参考訳(メタデータ) (2023-04-26T09:49:55Z) - Generalized Inter-class Loss for Gait Recognition [11.15855312510806]
歩行認識は、遠隔操作で非協調的に行うことのできるユニークな生体計測技術である。
それまでの歩行作業は、クラス間の分散を制限することの重要性を無視しながら、クラス内の分散を最小化することに焦点を当てていた。
サンプルレベルの特徴分布とクラスレベルの特徴分布の両方からクラス間の分散を解消する一般化されたクラス間損失を提案する。
論文 参考訳(メタデータ) (2022-10-13T06:44:53Z) - Dynamic Feature Regularized Loss for Weakly Supervised Semantic
Segmentation [37.43674181562307]
動的に更新される浅度と深度の両方の機能を利用する新たな正規化損失を提案する。
提案手法は,新しい最先端性能を実現し,他の手法よりも6%以上のmIoU増加率で優れたマージンを達成している。
論文 参考訳(メタデータ) (2021-08-03T05:11:00Z) - IntraLoss: Further Margin via Gradient-Enhancing Term for Deep Face
Recognition [14.562043494026849]
既存の分類に基づく顔認識手法は目覚ましい進歩を遂げた。
粗悪な特徴分布は、マージンスキームによるパフォーマンス改善を排除します。
本稿では,クラス内の分布特性に着目した勾配強調項を提案する。
論文 参考訳(メタデータ) (2021-07-07T16:53:45Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。