論文の概要: Batch-Incremental Triplet Sampling for Training Triplet Networks Using
Bayesian Updating Theorem
- arxiv url: http://arxiv.org/abs/2007.05610v2
- Date: Tue, 13 Oct 2020 14:13:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 20:56:57.307421
- Title: Batch-Incremental Triplet Sampling for Training Triplet Networks Using
Bayesian Updating Theorem
- Title(参考訳): ベイジアン更新定理を用いた三重項ネットワーク学習のためのバッチインクリメンタル三重項サンプリング
- Authors: Milad Sikaroudi, Benyamin Ghojogh, Fakhri Karray, Mark Crowley, H.R.
Tizhoosh
- Abstract要約: トリプルトネットワークは、差別的な埋め込み部分空間を学ぶための堅牢な実体である。
本研究では、既存のインスタンスからではなく、データの分散から三つ子をサンプリングする。
ベイジアン更新による三重項採掘は、任意の三重項に基づく損失関数で使用することができる。
- 参考スコア(独自算出の注目度): 10.037628288395293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variants of Triplet networks are robust entities for learning a
discriminative embedding subspace. There exist different triplet mining
approaches for selecting the most suitable training triplets. Some of these
mining methods rely on the extreme distances between instances, and some others
make use of sampling. However, sampling from stochastic distributions of data
rather than sampling merely from the existing embedding instances can provide
more discriminative information. In this work, we sample triplets from
distributions of data rather than from existing instances. We consider a
multivariate normal distribution for the embedding of each class. Using
Bayesian updating and conjugate priors, we update the distributions of classes
dynamically by receiving the new mini-batches of training data. The proposed
triplet mining with Bayesian updating can be used with any triplet-based loss
function, e.g., triplet-loss or Neighborhood Component Analysis (NCA) loss.
Accordingly, Our triplet mining approaches are called Bayesian Updating Triplet
(BUT) and Bayesian Updating NCA (BUNCA), depending on which loss function is
being used. Experimental results on two public datasets, namely MNIST and
histopathology colorectal cancer (CRC), substantiate the effectiveness of the
proposed triplet mining method.
- Abstract(参考訳): トリプルトネットワークの変数は、差別的な埋め込み部分空間を学ぶための堅牢な実体である。
最も適切なトレーニングトリプルトを選択するための、異なるトリプルトマイニングアプローチが存在する。
これらの採掘方法のいくつかはインスタンス間の極端な距離に依存しており、他のいくつかはサンプリングを利用する。
しかし、既存の埋め込みインスタンスからのみサンプリングするのではなく、データの確率分布からのサンプリングは、より識別的な情報を提供できる。
この研究では、既存のインスタンスではなく、データの分布からトリプレットをサンプリングします。
各クラスの埋め込みに対する多変量正規分布を考える。
ベイジアン更新と共役プリミティブを用いて,トレーニングデータのミニバッチを受信することで,クラス分布を動的に更新する。
ベイジアン更新による三重項採掘は、例えば三重項損失や近隣成分分析(NCA)損失など、任意の三重項損失関数で使用できる。
従って、我々のトリプルトマイニングアプローチは、どの損失関数が使われているかによって、ベイズ更新トリプルト(ただし)とベイズ更新nca(bunca)と呼ばれる。
mnist と histopathology colon cancer (crc) の2つの公共データセットにおける実験結果は,提案するトリプルトマイニング法の有効性を実証している。
関連論文リスト
- Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Generalized Differentiable RANSAC [95.95627475224231]
$nabla$-RANSACは、ランダム化された堅牢な推定パイプライン全体を学ぶことができる、微分可能なRANSACである。
$nabla$-RANSACは、精度という点では最先端のシステムよりも優れているが、精度は低い。
論文 参考訳(メタデータ) (2022-12-26T15:13:13Z) - A Maximum Log-Likelihood Method for Imbalanced Few-Shot Learning Tasks [3.2895195535353308]
数ショットアーキテクチャのための新しい最大ログ類似度指標を提案する。
提案手法は,従来の類似度指標よりも優れた性能を実現することを示す。
また,提案アルゴリズムは,評価データが不均衡である場合に,最先端のトランスダクティブな数ショット性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-26T21:31:00Z) - Towards Realistic Low-resource Relation Extraction: A Benchmark with
Empirical Baseline Study [51.33182775762785]
本稿では,低リソース環境下での関係抽出システムを構築するための実証的研究について述べる。
低リソース環境での性能を評価するための3つのスキームについて検討する。 (i) ラベル付きラベル付きデータを用いた異なるタイプのプロンプトベース手法、 (ii) 長期分布問題に対処する多様なバランシング手法、 (iii) ラベル付きインドメインデータを生成するためのデータ拡張技術と自己学習。
論文 参考訳(メタデータ) (2022-10-19T15:46:37Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Maximizing Conditional Entropy for Batch-Mode Active Learning of
Perceptual Metrics [14.777274711706653]
最大エントロピー原理を用いたバッチモードアクティブメトリック学習の新たなアプローチを提案する。
単調に増大する部分モジュラーエントロピー関数を利用して効率的なグリードアルゴリズムを構築する。
私たちのアプローチは、トリプルレット全体の情報性と多様性のバランスをとる統一されたスコアを定義する最初のバッチモードアクティブメトリック学習方法です。
論文 参考訳(メタデータ) (2021-02-15T06:55:17Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - The Bures Metric for Generative Adversarial Networks [10.69910379275607]
GAN(Generative Adversarial Networks)は、高品質なサンプルを生成する高性能な生成手法である。
実バッチの多様性と偽バッチの多様性を一致させることを提案する。
多様性マッチングはモード崩壊を著しく低減し, サンプル品質に肯定的な影響を及ぼす。
論文 参考訳(メタデータ) (2020-06-16T12:04:41Z) - Exploring Effects of Random Walk Based Minibatch Selection Policy on
Knowledge Graph Completion [11.484811954887432]
KGCモデルのトレーニングのためのランダムウォークに基づく新しいミニバッチサンプリング手法を提案する。
提案手法はDB100Kデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-04-12T06:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。