論文の概要: Metric learning by Similarity Network for Deep Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2004.14227v1
- Date: Wed, 29 Apr 2020 14:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:08:24.882524
- Title: Metric learning by Similarity Network for Deep Semi-Supervised Learning
- Title(参考訳): 半教師深層学習のための類似ネットワークによるメトリクス学習
- Authors: Sanyou Wu, Xingdong Feng, Fan Zhou
- Abstract要約: MLSN (Metric Learning by similarity Network) という新しい手法を提案する。
MLSNは、異なるドメインで適応的に距離メートル法を学ぶことを目的としている。
分類ネットワークとの共同トレーニングによって、類似性ネットワークはペアワイズ関係に関するさらなる情報を学ぶことができる。
- 参考スコア(独自算出の注目度): 10.88992147731219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep semi-supervised learning has been widely implemented in the real-world
due to the rapid development of deep learning. Recently, attention has shifted
to the approaches such as Mean-Teacher to penalize the inconsistency between
two perturbed input sets. Although these methods may achieve positive results,
they ignore the relationship information between data instances. To solve this
problem, we propose a novel method named Metric Learning by Similarity Network
(MLSN), which aims to learn a distance metric adaptively on different domains.
By co-training with the classification network, similarity network can learn
more information about pairwise relationships and performs better on some
empirical tasks than state-of-art methods.
- Abstract(参考訳): 深層半教師付き学習は、ディープラーニングの急速な発展により、現実世界で広く実践されている。
近年,2つの入力セット間の不整合をペナルティ化するための平均教師などのアプローチに注目が集まっている。
これらの手法は肯定的な結果が得られるかもしれないが、データインスタンス間の関係情報を無視する。
そこで本研究では,異なる領域で距離メトリックを適応的に学習することを目的とした,Metric Learning by similarity Network (MLSN) という新しい手法を提案する。
分類ネットワークと共同でトレーニングすることで、類似性ネットワークはペア関係に関するより多くの情報を学び、最先端の手法よりも経験的なタスクにおいて優れた性能を発揮する。
関連論文リスト
- Accelerated Stochastic ExtraGradient: Mixing Hessian and Gradient Similarity to Reduce Communication in Distributed and Federated Learning [50.382793324572845]
分散コンピューティングはデバイス間の通信を伴うため、効率性とプライバシという2つの重要な問題を解決する必要がある。
本稿では,データ類似性とクライアントサンプリングのアイデアを取り入れた新しい手法について分析する。
プライバシー問題に対処するために,付加雑音の手法を適用し,提案手法の収束への影響を解析する。
論文 参考訳(メタデータ) (2024-09-22T00:49:10Z) - DiverseNet: Decision Diversified Semi-supervised Semantic Segmentation Networks for Remote Sensing Imagery [17.690698736544626]
トレーニング中の精度と多様性を同時に向上し,マルチヘッド・マルチモデル半教師付き学習アルゴリズムを探索するDiverseNetを提案する。
DiverseNetファミリーで提案されている2つの手法、すなわちDiverseHeadとDiverseModelは、広く利用されている4つのリモートセンシング画像データセットにおいて、セマンティックセマンティックセマンティクスの性能を向上させる。
論文 参考訳(メタデータ) (2023-11-22T22:20:10Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。