論文の概要: SLOSH: Set LOcality Sensitive Hashing via Sliced-Wasserstein Embeddings
- arxiv url: http://arxiv.org/abs/2112.05872v1
- Date: Sat, 11 Dec 2021 00:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-18 16:23:36.552689
- Title: SLOSH: Set LOcality Sensitive Hashing via Sliced-Wasserstein Embeddings
- Title(参考訳): SLOSH:スライスワッセルシュタイン埋め込みによる局所感性ハッシュの設定
- Authors: Yuzhe Lu, Xinran Liu, Andrea Soltoggio, Soheil Kolouri
- Abstract要約: 本稿では,ANN (Non-parametric and data-independent learning from set-structured data using almost near neighbor (ANN) solutions。
Sliced-Wasserstein set embedding as a computerly efficient "set-2-vector" mechanism that possible downstream ANN。
本稿では,SLOSH (Set-LOcality Sensitive Hashing) と呼ばれるアルゴリズムの有効性を,様々なデータセットで示す。
- 参考スコア(独自算出の注目度): 18.916058638077274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning from set-structured data is an essential problem with many
applications in machine learning and computer vision. This paper focuses on
non-parametric and data-independent learning from set-structured data using
approximate nearest neighbor (ANN) solutions, particularly locality-sensitive
hashing. We consider the problem of set retrieval from an input set query. Such
retrieval problem requires: 1) an efficient mechanism to calculate the
distances/dissimilarities between sets, and 2) an appropriate data structure
for fast nearest neighbor search. To that end, we propose Sliced-Wasserstein
set embedding as a computationally efficient "set-2-vector" mechanism that
enables downstream ANN, with theoretical guarantees. The set elements are
treated as samples from an unknown underlying distribution, and the
Sliced-Wasserstein distance is used to compare sets. We demonstrate the
effectiveness of our algorithm, denoted as Set-LOcality Sensitive Hashing
(SLOSH), on various set retrieval datasets and compare our proposed embedding
with standard set embedding approaches, including Generalized Mean (GeM)
embedding/pooling, Featurewise Sort Pooling (FSPool), and Covariance Pooling
and show consistent improvement in retrieval results. The code for replicating
our results is available here:
\href{https://github.com/mint-vu/SLOSH}{https://github.com/mint-vu/SLOSH}.
- Abstract(参考訳): 集合構造データからの学習は、機械学習とコンピュータビジョンの多くの応用において重要な問題である。
本稿では, 近接近傍(ANN)ソリューション, 特に局所性に敏感なハッシュを用いた, 集合構造データからの非パラメトリックおよびデータ非依存学習に焦点を当てた。
入力集合クエリから集合を抽出する問題を考察する。
このような検索問題には
1)集合間の距離/相違を効率的に計算する機構
2) 高速近接探索に適したデータ構造
そこで本研究では,sliced-wasserstein set embeddedを計算効率の良い"set-2-vector"機構として提案する。
集合要素は未知の基底分布からサンプルとして扱われ、スライス・ヴァッサーシュタイン距離を用いて集合を比較する。
本研究では,様々な集合検索データセット上で,slosh(set-locality sensitive hashing)と呼ばれるアルゴリズムの有効性を実証し,一般化平均/プール,fspool(featurewise sort pooling),共分散プーリング(covariance pooling)などの標準組込み手法と比較し,結果の一貫した改善を示す。
結果を複製するコードは以下の通りである。 \href{https://github.com/mint-vu/SLOSH}{https://github.com/mint-vu/SLOSH}。
関連論文リスト
- DREW : Towards Robust Data Provenance by Leveraging Error-Controlled Watermarking [58.37644304554906]
誤り訂正符号と透かしを用いたデータ検索法(DREW)を提案する。
DREWはランダムに参照データセットをクラスタ化し、各クラスタに独自のエラー制御された透かしキーを注入する。
関連するクラスタを特定した後、最も正確な一致を見つけるために、クラスタ内に埋め込みベクトル類似性検索を行う。
論文 参考訳(メタデータ) (2024-06-05T01:19:44Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Hashing Learning with Hyper-Class Representation [8.206031417113987]
既存の教師なしハッシュ学習は属性中心の計算の一種である。
データ間の類似性を正確に保存することはできない。
本稿では,超クラス表現を用いたハッシュアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-06T03:35:45Z) - Learning to Hash Naturally Sorts [84.90210592082829]
そこで我々はNaturely-Sorted Hashing (NSH)を導入し,最終結果のソートによる深層ハッシュモデルのトレーニングを行った。
NSHはサンプルのハッシュコードのハミング距離をソートし、それに従って自己教師付きトレーニングのための潜伏した表現を収集する。
Sorted Noise-Contrastive Estimation (SortedNCE) の新たな損失について述べる。
論文 参考訳(メタデータ) (2022-01-31T16:19:02Z) - Learning to Hash Robustly, with Guarantees [79.68057056103014]
本稿では,理論的アルゴリズムと本質的に一致する最悪ケース保証を持つハミング空間のためのNSアルゴリズムを設計する。
理論的にも実用的にも、与えられたデータセットに対してアルゴリズムが最適化できる能力を評価する。
我々のアルゴリズムは、MNISTおよびImageNetデータセットに対する最悪のパフォーマンスのクエリを、1.8倍と2.1倍の精度でリコールする。
論文 参考訳(メタデータ) (2021-08-11T20:21:30Z) - Partial Wasserstein Covering [10.52782170493037]
我々は、大規模なデータセットをエミュレートする目的で、部分的なWassersteinと呼ばれる一般的なタスクについて検討する。
この問題をワッサーシュタイン偏微分を目的関数とする離散最適化問題としてモデル化する。
我々は、シーンデータセットの駆動を含む部分的なワッサースタインの発散の観点から、2つのデータセットを効率的に作成できることを示します。
論文 参考訳(メタデータ) (2021-06-02T01:48:41Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - LSF-Join: Locality Sensitive Filtering for Distributed All-Pairs Set
Similarity Under Skew [58.21885402826496]
全ペアセットの類似性は、大規模で高次元のデータセットであっても広く使われているデータマイニングタスクである。
我々は,全対集合の類似性を近似するために,新しい分散アルゴリズム LSF-Join を提案する。
LSF-Joinは、小さな類似度閾値やスキュー入力セットであっても、最も近いペアを効率的に見つける。
論文 参考訳(メタデータ) (2020-03-06T00:06:20Z) - AMP Chain Graphs: Minimal Separators and Structure Learning Algorithms [2.3333090554192615]
アンダーソン・マディガン・パールマン連鎖グラフ(AMP CG)における最小セパレータの探索問題に対処する。
我々は,PCライクなアルゴリズム (Pena, 2012) が,変数が与えられる順序に依存するという意味で,順序に依存していることを示す。
我々は,この順序依存の一部を除去するPCライクなアルゴリズムのいくつかの改良を提案する。
論文 参考訳(メタデータ) (2020-02-24T18:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。