論文の概要: Complex-valued embeddings of generic proximity data
- arxiv url: http://arxiv.org/abs/2008.13454v1
- Date: Mon, 31 Aug 2020 09:40:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 06:44:26.788938
- Title: Complex-valued embeddings of generic proximity data
- Title(参考訳): 総称近接データの複素値埋め込み
- Authors: Maximilian M\"unch and Michiel Straat and Michael Biehl and
Frank-Michael Schleif
- Abstract要約: 近さは、ほぼすべての機械学習手法の中心にある。
近接データの複素数値ベクトル埋め込みを提案する。
複雑な値を持つデータは、複雑な値を持つ機械学習アルゴリズムの入力として機能する。
- 参考スコア(独自算出の注目度): 0.6117371161379209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Proximities are at the heart of almost all machine learning methods. If the
input data are given as numerical vectors of equal lengths, euclidean distance,
or a Hilbertian inner product is frequently used in modeling algorithms. In a
more generic view, objects are compared by a (symmetric) similarity or
dissimilarity measure, which may not obey particular mathematical properties.
This renders many machine learning methods invalid, leading to convergence
problems and the loss of guarantees, like generalization bounds. In many cases,
the preferred dissimilarity measure is not metric, like the earth mover
distance, or the similarity measure may not be a simple inner product in a
Hilbert space but in its generalization a Krein space. If the input data are
non-vectorial, like text sequences, proximity-based learning is used or ngram
embedding techniques can be applied. Standard embeddings lead to the desired
fixed-length vector encoding, but are costly and have substantial limitations
in preserving the original data's full information. As an information
preserving alternative, we propose a complex-valued vector embedding of
proximity data. This allows suitable machine learning algorithms to use these
fixed-length, complex-valued vectors for further processing. The complex-valued
data can serve as an input to complex-valued machine learning algorithms. In
particular, we address supervised learning and use extensions of
prototype-based learning. The proposed approach is evaluated on a variety of
standard benchmarks and shows strong performance compared to traditional
techniques in processing non-metric or non-psd proximity data.
- Abstract(参考訳): proximitiesは、ほぼすべての機械学習手法の中心にある。
入力データが等しい長さの数値ベクトルとして与えられる場合、ユークリッド距離やヒルベルト内積はモデリングアルゴリズムで頻繁に用いられる。
より一般的な見方では、対象は特定の数学的性質に従わない(対称)類似性または不類似性測度によって比較される。
これにより、多くの機械学習メソッドが無効になり、収束問題や一般化境界などの保証の損失につながる。
多くの場合、好まれる相同性測度は、地球移動距離のような計量ではなく、あるいは類似性測度はヒルベルト空間の単純内積ではなく、その一般化においてクライン空間である。
入力データが、テキストシーケンスのようにベクトル的でない場合、近接ベースの学習やngram埋め込み技術を適用することができる。
標準組込みは所望の固定長ベクトル符号化をもたらすが、コストがかかり、元のデータの完全な情報を保存する上でかなりの制限がある。
情報保存代替手段として,近接データの複素数値ベクトル埋め込みを提案する。
これにより、適切な機械学習アルゴリズムは、これらの固定長の複素数値ベクトルをさらなる処理に使用できる。
複雑な値のデータは、複雑な値の機械学習アルゴリズムの入力として機能する。
特に,教師付き学習とプロトタイプベースの学習の拡張について論じる。
提案手法は,様々な標準ベンチマークで評価され,非メトリックおよび非psd近接データを処理する従来の手法と比較して,高い性能を示す。
関連論文リスト
- Revisiting Evaluation Metrics for Semantic Segmentation: Optimization
and Evaluation of Fine-grained Intersection over Union [113.20223082664681]
そこで本研究では,mIoUsの微細化と,それに対応する最悪の指標を提案する。
これらのきめ細かいメトリクスは、大きなオブジェクトに対するバイアスの低減、よりリッチな統計情報、モデルとデータセット監査に関する貴重な洞察を提供する。
ベンチマークでは,1つの測定値に基づかないことの必要性を強調し,微細なmIoUsが大きな物体への偏りを減少させることを確認した。
論文 参考訳(メタデータ) (2023-10-30T03:45:15Z) - CORE: Common Random Reconstruction for Distributed Optimization with
Provable Low Communication Complexity [110.50364486645852]
コミュニケーションの複雑さは、トレーニングをスピードアップし、マシン番号をスケールアップする上で、大きなボトルネックになっています。
本稿では,機械間で送信される情報を圧縮するための共通Om REOmを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:45:27Z) - Contrastive Learning as Kernel Approximation [0.0]
この論文は、対照的な学習に関する現在の理論的理解の概要を提供する。
最小化関数が正半定値(PSD)カーネルを暗黙的に近似する一般のコントラスト損失関数に注目する。
論文 参考訳(メタデータ) (2023-09-06T01:25:30Z) - Linearized Wasserstein dimensionality reduction with approximation
guarantees [65.16758672591365]
LOT Wassmap は、ワーッサーシュタイン空間の低次元構造を明らかにするための計算可能なアルゴリズムである。
我々は,LOT Wassmapが正しい埋め込みを実現し,サンプルサイズの増加とともに品質が向上することを示す。
また、LOT Wassmapがペア距離計算に依存するアルゴリズムと比較して計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2023-02-14T22:12:16Z) - Combining Varied Learners for Binary Classification using Stacked
Generalization [3.1871776847712523]
本稿では,高次元多嚢胞性卵巣症候群データセットを用いたスタックド一般化を用いたバイナリ分類を行う。
この論文では、受信器動作特性曲線で発見された微妙なトランスグレッションが誤りであることが証明されたことを指摘している。
論文 参考訳(メタデータ) (2022-02-17T21:47:52Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Unsupervised Ground Metric Learning using Wasserstein Eigenvectors [0.0]
主なボトルネックは、研究対象のタスクに適応すべき「基礎」コストの設計である。
本論文では,コストを入力間のペアワイズOT距離にマッピングする関数の正の固有ベクトルとして,接地コストを計算することで,正の正の答えを初めて提案する。
また,主成分分析次元の低減を行うエントロピー正則化を用いたスケーラブルな計算手法を提案する。
論文 参考訳(メタデータ) (2021-02-11T21:32:59Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Anchor & Transform: Learning Sparse Embeddings for Large Vocabularies [60.285091454321055]
我々は,アンカー埋め込みとスパース変換行列の小さな組を学習する,単純で効率的な埋め込みアルゴリズムを設計する。
テキスト分類、言語モデリング、映画レコメンデーションのベンチマークでは、ANTは大きな語彙サイズに特に適していることが示されている。
論文 参考訳(メタデータ) (2020-03-18T13:07:51Z) - An Advance on Variable Elimination with Applications to Tensor-Based
Computation [11.358487655918676]
本稿では,確率的推論を含む多くのアルゴリズムの基盤となる可変除去の古典的アルゴリズムについて述べる。
結果は機能的依存関係の活用に関連しており、非常に大きなツリー幅を持つモデルで推論と学習を効率的に行うことができる。
論文 参考訳(メタデータ) (2020-02-21T14:17:44Z) - Multiple Metric Learning for Structured Data [0.0]
構造化データからメトリクスを学習しながらグラフと特徴空間情報を融合する問題に対処する。
本稿では,距離制約下での最適化のためのグラフベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2020-02-13T19:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。