論文の概要: Fisher Discriminant Triplet and Contrastive Losses for Training Siamese
Networks
- arxiv url: http://arxiv.org/abs/2004.04674v1
- Date: Sun, 5 Apr 2020 09:27:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:09:27.100161
- Title: Fisher Discriminant Triplet and Contrastive Losses for Training Siamese
Networks
- Title(参考訳): シームズネットワークの訓練における漁獲量とコントラスト損失
- Authors: Benyamin Ghojogh, Milad Sikaroudi, Sobhan Shafiei, H.R. Tizhoosh,
Fakhri Karray, Mark Crowley
- Abstract要約: 我々は2つの新しい損失関数、Fisher Discriminant TripletとFisher Discriminant Contrastiveを提案する。
MNISTと2つの困難かつ公開な病理組織学的データセットを用いた実験により,提案した損失関数の有効性が示された。
- 参考スコア(独自算出の注目度): 10.139011235596968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Siamese neural network is a very powerful architecture for both feature
extraction and metric learning. It usually consists of several networks that
share weights. The Siamese concept is topology-agnostic and can use any neural
network as its backbone. The two most popular loss functions for training these
networks are the triplet and contrastive loss functions. In this paper, we
propose two novel loss functions, named Fisher Discriminant Triplet (FDT) and
Fisher Discriminant Contrastive (FDC). The former uses anchor-neighbor-distant
triplets while the latter utilizes pairs of anchor-neighbor and anchor-distant
samples. The FDT and FDC loss functions are designed based on the statistical
formulation of the Fisher Discriminant Analysis (FDA), which is a linear
subspace learning method. Our experiments on the MNIST and two challenging and
publicly available histopathology datasets show the effectiveness of the
proposed loss functions.
- Abstract(参考訳): シームズニューラルネットワークは、特徴抽出とメートル法学習の両方のための非常に強力なアーキテクチャである。
通常、重みを共有する複数のネットワークで構成される。
siameseの概念はトポロジーに依存しず、任意のニューラルネットワークをバックボーンとして使用できる。
これらのネットワークを訓練する最も一般的な損失関数は、三重項と対照的な損失関数である。
本稿では,FDT(Fisher Discriminant Triplet)とFDC(Fisher Discriminant Contrastive)という2つの新しい損失関数を提案する。
前者はアンカー隣のトリプルを使用し、後者はアンカー隣のサンプルとアンカー隣のサンプルを使用する。
FDTとFDC損失関数は、線形部分空間学習法であるFisher Discriminant Analysis (FDA)の統計的定式化に基づいて設計されている。
MNISTと2つの困難かつ公開な病理組織学的データセットを用いた実験により,提案した損失関数の有効性が示された。
関連論文リスト
- Bilinear-Convolutional Neural Network Using a Matrix Similarity-based Joint Loss Function for Skin Disease Classification [3.710922682020501]
拘束型トリプルトネットワーク(CTN)を用いたBCNNを用いた皮膚疾患分類モデルを提案する。
BCNNは画像データの特徴間の豊富な空間的相互作用をキャプチャできる。
提案モデルは,ディープネットワークからクラス内特徴を抽出するために訓練される。
論文 参考訳(メタデータ) (2024-06-02T10:19:02Z) - Improved Generalization of Weight Space Networks via Augmentations [53.87011906358727]
深度重み空間(DWS)における学習は新たな研究方向であり、2次元および3次元神経場(INRs, NeRFs)への応用
我々は、この過度な適合の理由を実証的に分析し、主要な理由は、DWSデータセットの多様性の欠如であることがわかった。
そこで本研究では,重み空間におけるデータ拡張戦略について検討し,重み空間に適応したMixUp法を提案する。
論文 参考訳(メタデータ) (2024-02-06T15:34:44Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Mean-field Analysis of Piecewise Linear Solutions for Wide ReLU Networks [83.58049517083138]
勾配勾配勾配を用いた2層ReLUネットワークについて検討する。
SGDは単純な解に偏りがあることが示される。
また,データポイントと異なる場所で結び目が発生するという経験的証拠も提供する。
論文 参考訳(メタデータ) (2021-11-03T15:14:20Z) - Incremental Class Learning using Variational Autoencoders with
Similarity Learning [0.0]
漸進的な学習におけるニューラルネットワークの破滅的な忘れは、依然として難しい問題である。
本研究は,段階的な授業学習における4つのよく知られた計量に基づく損失関数の破滅的忘れについて検討する。
角損失はほとんど影響を受けず, 対照的に3重項損失, 中心損失は良好な鉱業技術であった。
論文 参考訳(メタデータ) (2021-10-04T10:19:53Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Adaptive Weighted Discriminator for Training Generative Adversarial
Networks [11.68198403603969]
本稿では,実物と偽物の重み付けを取り入れた新たな識別器損失関数群を提案する。
本手法は実部と偽部の合計である損失を持つ任意の判別器モデルに適用できる可能性がある。
論文 参考訳(メタデータ) (2020-12-05T23:55:42Z) - Monocular Depth Estimation Using Multi Scale Neural Network And Feature
Fusion [0.0]
ネットワークは2つの異なるブロックを使用し、まず、各特徴マップの畳み込みとマージに異なるフィルタサイズを使用する。
第2ブロックは、完全に連結された層の代わりに拡張畳み込みを使用し、計算を減らし、受容場を増大させる。
我々は、RMSE損失とSILog損失からなる深さ推定のための標準評価指標を用いて、Make 3Dデータセット、NYU Depth V2データセット、Kittiデータセットでネットワークをトレーニングし、テストする。
論文 参考訳(メタデータ) (2020-09-11T18:08:52Z) - clDice -- A Novel Topology-Preserving Loss Function for Tubular
Structure Segmentation [57.20783326661043]
中心線Dice (short clDice) と呼ばれる新しい類似度尺度を導入する。
理論的には、clDiceは2次元および3次元のセグメンテーションにおけるホモトピー同値までのトポロジー保存を保証する。
我々は、船舶、道路、ニューロン(2Dと3D)を含む5つの公開データセットでソフトクライス損失をベンチマークした。
論文 参考訳(メタデータ) (2020-03-16T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。