論文の概要: AMC-Loss: Angular Margin Contrastive Loss for Improved Explainability in
Image Classification
- arxiv url: http://arxiv.org/abs/2004.09805v1
- Date: Tue, 21 Apr 2020 08:03:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 07:05:38.549474
- Title: AMC-Loss: Angular Margin Contrastive Loss for Improved Explainability in
Image Classification
- Title(参考訳): AMC-Loss: 画像分類における説明可能性向上のためのAngular Margin Contrastive Loss
- Authors: Hongjun Choi, Anirudh Som and Pavan Turaga
- Abstract要約: Angular Margin Contrastive Loss (AMC-Loss)は、従来のクロスエントロピー損失とともに使用される新しいロス関数である。
AMC-ロスは超球面多様体上の測地線距離と同値の判別角距離計量を用いる。
提案した幾何的制約付き損失関数は定量的な結果を適度に改善するが,ディープネット決定の解釈可能性を高めるには,質的に驚くほど有益であることがわかった。
- 参考スコア(独自算出の注目度): 8.756814963313804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep-learning architectures for classification problems involve the
cross-entropy loss sometimes assisted with auxiliary loss functions like center
loss, contrastive loss and triplet loss. These auxiliary loss functions
facilitate better discrimination between the different classes of interest.
However, recent studies hint at the fact that these loss functions do not take
into account the intrinsic angular distribution exhibited by the low-level and
high-level feature representations. This results in less compactness between
samples from the same class and unclear boundary separations between data
clusters of different classes. In this paper, we address this issue by
proposing the use of geometric constraints, rooted in Riemannian geometry.
Specifically, we propose Angular Margin Contrastive Loss (AMC-Loss), a new loss
function to be used along with the traditional cross-entropy loss. The AMC-Loss
employs the discriminative angular distance metric that is equivalent to
geodesic distance on a hypersphere manifold such that it can serve a clear
geometric interpretation. We demonstrate the effectiveness of AMC-Loss by
providing quantitative and qualitative results. We find that although the
proposed geometrically constrained loss-function improves quantitative results
modestly, it has a qualitatively surprisingly beneficial effect on increasing
the interpretability of deep-net decisions as seen by the visual explanations
generated by techniques such as the Grad-CAM. Our code is available at
https://github.com/hchoi71/AMC-Loss.
- Abstract(参考訳): 分類問題に対するディープラーニングアーキテクチャは、しばしば中心損失、対照的な損失、三重項損失などの補助的損失関数を補助するクロスエントロピー損失を含む。
これらの補助損失関数は、異なる関心のクラス間のより良い識別を促進する。
しかし、近年の研究は、これらの損失関数が低レベルおよび高レベルの特徴表現によって示される固有角分布を考慮していないことを示唆している。
これにより、同じクラスからのサンプル間のコンパクトさが低下し、異なるクラスのデータクラスタ間の境界が明確になる。
本稿では、リーマン幾何学に根ざした幾何学的制約の利用を提案し、この問題に対処する。
具体的には,従来のクロスエントロピー損失と合わせて,新たな損失関数であるAngular Margin Contrastive Loss (AMC-Loss)を提案する。
AMC-ロスは、超球面多様体上の測地線距離と同値である識別角距離計量を用いて、明確な幾何学的解釈を提供することができる。
定量的および定性的な結果を提供することにより,AMC-Lossの有効性を示す。
提案した幾何的制約付き損失関数は定量的な結果を適度に改善するが,Grad-CAMのような手法による視覚的説明で見られるように,ディープネット決定の解釈可能性を高めるには,質的に驚くほど有益であることがわかった。
私たちのコードはhttps://github.com/hchoi71/AMC-Lossで利用可能です。
関連論文リスト
- EnsLoss: Stochastic Calibrated Loss Ensembles for Preventing Overfitting in Classification [1.3778851745408134]
経験的リスク最小化フレームワーク内で損失関数を結合する新しいアンサンブル手法,すなわちEnsLossを提案する。
まず、損失のCC条件を損失導関数に変換し、明示的な損失関数の必要性を回避した。
理論的には、我々のアプローチの統計的一貫性を確立し、その利点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-09-02T02:40:42Z) - Large Margin Discriminative Loss for Classification [3.3975558777609915]
本稿では,Deep Learning の文脈において,大きなマージンを持つ新たな識別的損失関数を提案する。
この損失は、クラス内コンパクト性とクラス間分離性によって表されるニューラルネットの識別力を高める。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Disentanglement Learning via Topology [22.33086299021419]
マルチスケールなトポロジ的損失項を付加することにより,不整合表現を学習するTopDisを提案する。
ディスタングルメントは、ディープラーニングモデルの説明可能性と堅牢性にとって重要なデータ表現の重要な特性である。
提案した位相損失を用いて,訓練されたGANにおいて不整合方向を求める方法を示す。
論文 参考訳(メタデータ) (2023-08-24T10:29:25Z) - Do Lessons from Metric Learning Generalize to Image-Caption Retrieval? [67.45267657995748]
半ハードな負のトリプルト損失は、スクラッチから最適化されたイメージキャプション検索(ICR)メソッドのデファクト選択となっている。
近年のメトリクス学習の進歩により、画像検索や表現学習といったタスクにおいて、三重項損失を上回る新たな損失関数が生まれている。
これらの結果は,2つのICR法における3つの損失関数を比較することで,ICRの設定に一般化するかどうかを問う。
論文 参考訳(メタデータ) (2022-02-14T15:18:00Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Understanding Square Loss in Training Overparametrized Neural Network
Classifiers [31.319145959402462]
過度にパラメータ化されたニューラルネットワークでどのように機能するかを体系的に検討することにより、分類における二乗損失の理論的理解に寄与する。
クラスが分離可能か否かに応じて2つのケースを考慮する。一般的な非分離可能の場合、誤分類率と校正誤差の両方について、高速収束率が確立される。
結果として得られるマージンはゼロから下界であることが証明され、ロバスト性の理論的な保証を提供する。
論文 参考訳(メタデータ) (2021-12-07T12:12:30Z) - Orthogonal Projection Loss [59.61277381836491]
直交射影損失(OPL)と呼ばれる新しい損失関数を開発する。
OPLは、機能空間におけるクラス内クラスタリングとクラス間分離を直接実施する。
OPLは、慎重な負のマイニングを必要とせず、バッチサイズに敏感であるため、ユニークな利点がある。
論文 参考訳(メタデータ) (2021-03-25T17:58:00Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation [56.343646789922545]
そこで本研究では,各計量に対する相異なるサロゲート損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
PASCAL VOCとCityscapesの実験では、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
論文 参考訳(メタデータ) (2020-10-15T17:59:08Z) - $\sigma^2$R Loss: a Weighted Loss by Multiplicative Factors using
Sigmoidal Functions [0.9569316316728905]
我々は,二乗還元損失(sigma2$R損失)と呼ばれる新たな損失関数を導入する。
我々の損失は明らかな直観と幾何学的解釈を持ち、我々の提案の有効性を実験によって実証する。
論文 参考訳(メタデータ) (2020-09-18T12:34:40Z) - Enhancing Geometric Factors in Model Learning and Inference for Object
Detection and Instance Segmentation [91.12575065731883]
境界ボックス回帰および非最大抑圧(NMS)における幾何学的要素の強化を目的とした完全IoU損失とクラスタNMSを提案する。
CIoU損失を用いたディープラーニングモデルのトレーニングは、広く採用されている$ell_n$-norm損失とIoUベースの損失と比較して、一貫性のあるAPとARの改善をもたらす。
クラスタ-NMSは、純粋なGPU実装のため非常に効率的であり、APとARの両方を改善するために幾何学的要素を組み込むことができる。
論文 参考訳(メタデータ) (2020-05-07T16:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。