論文の概要: A Quadruplet Loss for Enforcing Semantically Coherent Embeddings in
Multi-output Classification Problems
- arxiv url: http://arxiv.org/abs/2002.11644v3
- Date: Fri, 20 Mar 2020 16:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 15:18:02.077508
- Title: A Quadruplet Loss for Enforcing Semantically Coherent Embeddings in
Multi-output Classification Problems
- Title(参考訳): 多出力分類問題におけるセマンティック・コヒーレントな埋め込み強化のための四重項損失
- Authors: Hugo Proen\c{c}a, Ehsan Yaghoubi and Pendar Alirezazadeh
- Abstract要約: 本稿では,多出力分類問題における意味的コヒーレントな特徴埋め込みを学習するための1つの目的関数について述べる。
視覚的監視環境における識別検索と生体認証の問題点を考察する。
- 参考スコア(独自算出の注目度): 5.972927416266617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes one objective function for learning semantically
coherent feature embeddings in multi-output classification problems, i.e., when
the response variables have dimension higher than one. In particular, we
consider the problems of identity retrieval and soft biometrics labelling in
visual surveillance environments, which have been attracting growing interests.
Inspired by the triplet loss [34] function, we propose a generalization that:
1) defines a metric that considers the number of agreeing labels between pairs
of elements; and 2) disregards the notion of anchor, replacing d(A1, A2) <
d(A1, B) by d(A, B) < d(C, D), for A, B, C, D distance constraints, according
to the number of agreeing labels between pairs. As the triplet loss
formulation, our proposal also privileges small distances between positive
pairs, but at the same time explicitly enforces that the distance between other
pairs corresponds directly to their similarity in terms of agreeing labels.
This yields feature embeddings with a strong correspondence between the classes
centroids and their semantic descriptions, i.e., where elements are closer to
others that share some of their labels than to elements with fully disjoint
labels membership. As practical effect, the proposed loss can be seen as
particularly suitable for performing joint coarse (soft label) + fine (ID)
inference, based on simple rules as k-neighbours, which is a novelty with
respect to previous related loss functions. Also, in opposition to its triplet
counterpart, the proposed loss is agnostic with regard to any demanding
criteria for mining learning instances (such as the semi-hard pairs). Our
experiments were carried out in five different datasets (BIODI, LFW, IJB-A,
Megaface and PETA) and validate our assumptions, showing highly promising
results.
- Abstract(参考訳): 本稿では,多出力分類問題における意味的コヒーレントな特徴埋め込みを学習するための1つの目的関数,すなわち応答変数が1より高次元である場合について述べる。
特に,注目されている視覚監視環境における識別検索や生体認証の問題点について考察する。
三重項損失[34]関数に着想を得た一般化を提案する。
1) 要素のペア間の合意ラベルの数を考慮に入れた計量を定義する。
2) d(A1, A2) < d(A1, B) を d(A, B) < d(C, D) に置き換え、ペア間の合意ラベルの数に応じて A, B, C, D 距離の制約を課すアンカーの概念を無視する。
三重項損失の定式化として、我々の提案は正のペア間の小さな距離を特権化するが、同時に、他のペア間の距離はラベルの一致の観点から直接その類似性に対応することを明示的に強制する。
これにより、機能埋め込みは、センタロイドクラスとその意味記述、すなわち、要素が、完全に無関係なラベルメンバーシップを持つ要素よりも、いくつかのラベルを共有している他の要素に近いものとの間に強い対応を持つ。
実効例として,提案した損失は,従来からある損失関数であるk-neighboursのような単純な規則に基づいて,関節粗い(ソフトラベル)+細い(ID)推論を行うのに特に適していると考えられる。
また、三重項のそれとは対照的に、提案された損失は、学習インスタンス(例えば半ハードペア)のマイニングの要求基準について無関係である。
実験は,BIODI,LFW,IJB-A,Megaface,PETAの5種類のデータセットを用いて実施し,その仮定を検証し,有望な結果を示した。
関連論文リスト
- Multi-Label Classification for Implicit Discourse Relation Recognition [10.280148603465697]
暗黙的な談話関係認識のための多言語分類フレームワークについて検討する。
本研究では,複数ラベルの分類手法が単一ラベルの予測性能を低下させないことを示す。
論文 参考訳(メタデータ) (2024-06-06T19:37:25Z) - REPAIR: Rank Correlation and Noisy Pair Half-replacing with Memory for
Noisy Correspondence [36.274879585424635]
取得したデータにノイズが存在することは、クロスモーダルマッチングの性能低下につながる。
我々は,不一致なデータペア問題に対処するために,ランクコラーレーションと雑音hAlf wIth memoRyというフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-13T04:01:20Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - None Class Ranking Loss for Document-Level Relation Extraction [22.173080823450498]
文書レベルの関係抽出(RE)は、複数の文にまたがって表現されるエンティティ間の関係を抽出することを目的としている。
典型的な文書では、ほとんどのエンティティペアは事前定義された関係を表現せず、"noone"あるいは"no relation"とラベル付けされている。
論文 参考訳(メタデータ) (2022-05-01T14:24:37Z) - Clusterability as an Alternative to Anchor Points When Learning with
Noisy Labels [7.920797564912219]
本稿では,クラスタ可能性条件に基づく効率的な推定手法を提案する。
アンカーポイントを使った手法と比較して、我々のアプローチはより多くのインスタンスを使用し、より優れたサンプル複雑さの恩恵を受ける。
論文 参考訳(メタデータ) (2021-02-10T07:22:56Z) - Rank-Consistency Deep Hashing for Scalable Multi-Label Image Search [90.30623718137244]
スケーラブルなマルチラベル画像検索のための新しいディープハッシュ法を提案する。
2つの空間の類似性順序を整列するために、新しい階数整合性目的を適用した。
強力な損失関数は、意味的類似性とハミング距離が一致しないサンプルをペナルティ化するように設計されている。
論文 参考訳(メタデータ) (2021-02-02T13:46:58Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Learning to Decouple Relations: Few-Shot Relation Classification with
Entity-Guided Attention and Confusion-Aware Training [49.9995628166064]
本稿では,2つのメカニズムを備えたモデルであるCTEGを提案する。
一方、注意を誘導するEGA機構を導入し、混乱を引き起こす情報をフィルタリングする。
一方,コンフュージョン・アウェア・トレーニング(CAT)法は,関係の識別を明示的に学習するために提案されている。
論文 参考訳(メタデータ) (2020-10-21T11:07:53Z) - Pointwise Binary Classification with Pairwise Confidence Comparisons [97.79518780631457]
ペアワイズ比較(Pcomp)分類を提案し、ラベルのないデータのペアしか持たない。
我々はPcomp分類をノイズラベル学習に結びつけて、進歩的UREを開発し、一貫性の正則化を課すことにより改善する。
論文 参考訳(メタデータ) (2020-10-05T09:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。