論文の概要: Mean Field Theory in Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2306.15368v1
- Date: Tue, 27 Jun 2023 10:33:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 13:51:58.643513
- Title: Mean Field Theory in Deep Metric Learning
- Title(参考訳): Deep Metric Learningにおける平均場理論
- Authors: Takuya Furusawa
- Abstract要約: 分類に基づく損失関数をペアベースから設計する手法を開発した。
我々は2つの新しい損失関数、MeanFieldContrastiveとMeanFieldClassWiseMultiSimilarity損失を導出し、トレーニングの複雑さを低減した。
得られた損失関数を3つの画像検索データセット上で広範囲に評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we explore the application of mean field theory, a technique
from statistical physics, to deep metric learning and address the high training
complexity commonly associated with conventional metric learning loss
functions. By adapting mean field theory for deep metric learning, we develop
an approach to design classification-based loss functions from pair-based ones,
which can be considered complementary to the proxy-based approach. Applying the
mean field theory to two pair-based loss functions, we derive two new loss
functions, MeanFieldContrastive and MeanFieldClassWiseMultiSimilarity losses,
with reduced training complexity. We extensively evaluate these derived loss
functions on three image-retrieval datasets and demonstrate that our loss
functions outperform baseline methods in two out of the three datasets.
- Abstract(参考訳): 本稿では,統計物理学からの手法である平均場理論をディープメトリック学習に適用し,従来のメトリック学習損失関数に共通する高いトレーニング複雑性に対処する。
深度距離学習に平均場理論を適用することにより、ペアベースから分類に基づく損失関数を設計するアプローチが開発され、これはプロキシベースのアプローチと相補的なものと考えられる。
平均場理論を2つのペアベース損失関数に適用することにより、トレーニングの複雑さを低減し、MeanFieldContrastiveとMeanFieldClassWiseMultiSimilarity損失という2つの新しい損失関数を導出する。
3つの画像リトライバルデータセットにおけるこれら導出損失関数を広範囲に評価し、3つのデータセットのうち2つにおいて、損失関数がベースラインメソッドを上回ることを実証した。
関連論文リスト
- Data organization limits the predictability of binary classification [8.494815916044814]
実データセット上でのバイナリ分類性能の理論的上限は理論的に達成可能であることを示す。
本分析により,2値分類データにおける性能の上限値とクラス重複レベルとの詳細な関係が明らかになった。
論文 参考訳(メタデータ) (2024-01-30T14:16:02Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - On Interpretable Approaches to Cluster, Classify and Represent
Multi-Subspace Data via Minimum Lossy Coding Length based on Rate-Distortion
Theory [0.0]
クラスタリング、分類、表現は、本質的な構造を持つ高次元データから学習する3つの基本的な目的である。
本稿では,3つの解釈可能なアプローチ,すなわち,最小ロッシー符号化長基準によるセグメンテーション(クラスタリング),最小インクリメンタル符号化長基準による分類,最大符号化レート削減基準による表現を紹介する。
論文 参考訳(メタデータ) (2023-02-21T01:15:08Z) - A survey and taxonomy of loss functions in machine learning [51.35995529962554]
本稿では, 回帰, 分類, 生成モデル, ランキング, エネルギーベースモデリングなど, 主要なアプリケーションにまたがる最も広く使われている損失関数について概観する。
直感的な分類法で構築された43個の個別の損失関数を導入し,それらの理論的基礎,特性,最適な適用状況を明らかにした。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - Learning Symbolic Model-Agnostic Loss Functions via Meta-Learning [12.581217671500887]
本稿では,ハイブリッド型ニューロシンボリックサーチ手法を用いて,モデルに依存しない損失関数を学習するためのメタラーニングフレームワークを提案する。
その結果,提案手法により発見されたメタ学習損失関数は,クロスエントロピー損失と最先端の損失関数学習の両方よりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T10:29:01Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - Margin-Based Transfer Bounds for Meta Learning with Deep Feature
Embedding [67.09827634481712]
我々は、マージン理論と統計学習理論を活用し、メタラーニングに基づくマルチクラス分類(MLMC)のための3つのマージンベース転送境界を確立する。
これらの境界は、与えられた将来のタスクに対する分類アルゴリズムの予測誤差を、前のタスクの有限個の平均的な経験誤差で推定できることを示している。
3つのベンチマークの実験は、これらのマージンベースのモデルが依然として競争力のある性能を達成していることを示している。
論文 参考訳(メタデータ) (2020-12-02T23:50:51Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。