論文の概要: Continuous Histogram Loss: Beyond Neural Similarity
- arxiv url: http://arxiv.org/abs/2004.02830v1
- Date: Mon, 6 Apr 2020 17:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 05:53:32.820567
- Title: Continuous Histogram Loss: Beyond Neural Similarity
- Title(参考訳): 連続ヒストグラム損失:神経類似性を超えて
- Authors: Artem Zholus and Evgeny Putin
- Abstract要約: 我々は最近提案されたヒストグラム損失を多値類似度に一般化する連続ヒストグラム損失(CHL)と呼ばれる新しい損失関数を導入する。
この新たな損失は、類似性学習、表現学習、データ視覚化など、幅広いタスクを解決できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Similarity learning has gained a lot of attention from researches in recent
years and tons of successful approaches have been recently proposed. However,
the majority of the state-of-the-art similarity learning methods consider only
a binary similarity. In this paper we introduce a new loss function called
Continuous Histogram Loss (CHL) which generalizes recently proposed Histogram
loss to multiple-valued similarities, i.e. allowing the acceptable values of
similarity to be continuously distributed within some range. The novel loss
function is computed by aggregating pairwise distances and similarities into 2D
histograms in a differentiable manner and then computing the probability of
condition that pairwise distances will not decrease as the similarities
increase. The novel loss is capable of solving a wider range of tasks including
similarity learning, representation learning and data visualization.
- Abstract(参考訳): 近年、類似性学習は研究から多くの注目を集め、多くの成功したアプローチが最近提案されている。
しかし、最先端の類似性学習手法の大半は、バイナリ類似性のみを考慮している。
本稿では,最近提案された複数値の類似性に対するヒストグラム損失を一般化した連続ヒストグラム損失(chl)と呼ばれる新しい損失関数を提案する。
この新たな損失関数は、2次元ヒストグラムに相似性や相似性を微分可能に集約し、相似性が増すにつれて相似性が低下しない条件の確率を計算することで計算される。
この新たな損失は、類似性学習、表現学習、データ視覚化を含む幅広いタスクを解くことができる。
関連論文リスト
- DiffKendall: A Novel Approach for Few-Shot Learning with Differentiable
Kendall's Rank Correlation [16.038667928358763]
ほとんどショットラーニングは、ベースデータセットでトレーニングされたモデルを、それまでモデルで見られていなかった新しいタスクに適応することを目的としていない。
これはしばしば、新しいクラスのチャネルにまたがって、機能値の比較的均一な分布をもたらす。
特徴チャネルのランク付けの重要性は、幾何学的類似度指標よりも、数ショット学習においてより信頼性の高い指標であることが示される。
論文 参考訳(メタデータ) (2023-07-28T05:32:56Z) - Instance-Variant Loss with Gaussian RBF Kernel for 3D Cross-modal
Retriveal [52.41252219453429]
既存の方法は全てのインスタンスを等しく扱い、同じペナルティ強度を様々な難易度を持つインスタンスに適用する。
これは曖昧な収束や局所最適性をもたらし、特徴空間の分離性を著しく妥協させる。
本稿では,異なるインスタンスに対して異なるペナルティ強度を割り当て,空間分離性を向上させるインスタンス・ヴァリアント損失を提案する。
論文 参考訳(メタデータ) (2023-05-07T10:12:14Z) - Learning the Relation between Similarity Loss and Clustering Loss in
Self-Supervised Learning [27.91000553525992]
自己教師付き学習は、ネットワークが大量のデータから識別的特徴を学習することを可能にする。
類似度損失と特徴レベルのクロスエントロピー損失の関係を解析する。
これらの2つの損失の適切な組み合わせが、最先端の結果が得られることを示すための理論的分析と実験を提供する。
論文 参考訳(メタデータ) (2023-01-08T13:30:39Z) - Instance-Dependent Label-Noise Learning with Manifold-Regularized
Transition Matrix Estimation [172.81824511381984]
遷移行列 T(x) は、インスタンス依存ノイズ(IDN)の下では特定できない
我々は、T(x) の幾何学について、「より近い2つのインスタンスは、それに対応する遷移行列がより類似している」という仮定を提案する。
本手法は,難解なIDNの下でのラベルノイズ学習において,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2022-06-06T04:12:01Z) - Attributable Visual Similarity Learning [90.69718495533144]
本稿では、画像間のより正確で説明可能な類似度測定のための帰属的視覚類似度学習(AVSL)フレームワークを提案する。
人間の意味的類似性認知に動機づけられた2つの画像とグラフとの類似性を表現するために,一般化された類似性学習パラダイムを提案する。
CUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、既存の深い類似性学習方法よりも大幅に改善されたことを示している。
論文 参考訳(メタデータ) (2022-03-28T17:35:31Z) - Instance-Level Relative Saliency Ranking with Graph Reasoning [126.09138829920627]
そこで本研究では,有意な事例を分割し,相対的有意な有意なランク順序を推定するための統一モデルを提案する。
また、サラレンシーランキングブランチを効果的にトレーニングするために、新しい損失関数も提案されている。
実験の結果,提案手法は従来の手法よりも有効であることがわかった。
論文 参考訳(メタデータ) (2021-07-08T13:10:42Z) - Detection of Alzheimer's Disease Using Graph-Regularized Convolutional
Neural Network Based on Structural Similarity Learning of Brain Magnetic
Resonance Images [3.478478232710667]
磁気共鳴画像(MRI)間の構造的類似性を学習したアルツハイマー病(AD)検出法を提案する。
入力画像の埋め込み特徴(Non-Demented (ND), Very Mild Demented (VMD), Mild Demented (MD), Moderated Demented (MDTD))を用いて類似度グラフを構築する。
論文 参考訳(メタデータ) (2021-02-25T14:49:50Z) - Differentiable Histogram with Hard-Binning [0.0]
従来のヒストグラムのハードバイニング操作を直接近似する微分可能なヒストグラムを提案する。
Numpyを用いて計算したヒストグラムと比較して、提案したヒストグラムの絶対近似誤差は0.000158である。
論文 参考訳(メタデータ) (2020-11-20T21:52:03Z) - An Equivalence between Loss Functions and Non-Uniform Sampling in
Experience Replay [72.23433407017558]
非一様サンプルデータを用いて評価された損失関数は、別の一様サンプルデータ損失関数に変換可能であることを示す。
驚いたことに、いくつかの環境では、PERは経験的パフォーマンスに影響を与えることなく、この新たな損失関数に完全に置き換えることができる。
論文 参考訳(メタデータ) (2020-07-12T17:45:24Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。