論文の概要: Generalized mean shift with triangular kernel profile
- arxiv url: http://arxiv.org/abs/2001.02165v1
- Date: Tue, 7 Jan 2020 16:46:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 20:35:56.814940
- Title: Generalized mean shift with triangular kernel profile
- Title(参考訳): 三角カーネルプロファイルを用いた一般化平均シフト
- Authors: S\'ebastien Razakarivony and Axel Barrau
- Abstract要約: 平均シフトアルゴリズムは、特定のカーネルベースの形状をとる確率密度関数のモードを見つけるのに一般的な方法である。
それらに適応した新しい平均シフト多様体が導出可能であることを示し、有限個の反復の後に収束することが証明された。
- 参考スコア(独自算出の注目度): 5.381004207943597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The mean shift algorithm is a popular way to find modes of some probability
density functions taking a specific kernel-based shape, used for clustering or
visual tracking. Since its introduction, it underwent several practical
improvements and generalizations, as well as deep theoretical analysis mainly
focused on its convergence properties. In spite of encouraging results, this
question has not received a clear general answer yet. In this paper we focus on
a specific class of kernels, adapted in particular to the distributions
clustering applications which motivated this work. We show that a novel Mean
Shift variant adapted to them can be derived, and proved to converge after a
finite number of iterations. In order to situate this new class of methods in
the general picture of the Mean Shift theory, we alo give a synthetic exposure
of existing results of this field.
- Abstract(参考訳): 平均シフトアルゴリズムは、クラスタリングや視覚追跡に使用される特定のカーネルベースの形状をとる確率密度関数のモードを見つける一般的な方法である。
導入以来、いくつかの実践的な改善と一般化が行われ、また収束性を中心に深い理論解析が行われた。
励ましの結果にもかかわらず、この質問はまだ明確な一般回答を得られていない。
本稿では,この作業の動機となった分散クラスタリングアプリケーションに特に適応した,カーネルの特定のクラスに注目する。
その結果,それらに適応した新しい平均シフト変種が導出され,有限個の反復の後に収束することが証明された。
平均シフト理論の一般図において、この新しい手法のクラスをシチュートするために、我々はこの分野の既存の結果の合成露光を行う。
関連論文リスト
- Learning to Embed Distributions via Maximum Kernel Entropy [0.0]
固有データは、確率分布の集合からのサンプルと見なすことができる。
カーネルメソッドは、これらの分布を分類する学習の自然なアプローチとして現れてきた。
データ依存分散カーネルの教師なし学習のための新しい目的を提案する。
論文 参考訳(メタデータ) (2024-08-01T13:34:19Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Single Domain Generalization via Normalised Cross-correlation Based
Convolutions [14.306250516592304]
単一ドメインの一般化は、単一のソースからのデータを使用して堅牢なモデルをトレーニングすることを目的としている。
本稿では、重みと入力特徴パッチの間の正規化相互相関を計算するXCNormという演算子を提案する。
この演算子で構成されるディープニューラルネットワークは、一般的な意味分布シフトに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2023-07-12T04:15:36Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Adaptative clustering by minimization of the mixing entropy criterion [0.0]
本稿では,1990年代以降に応用統計学で発生した現象をクラスタリング法で説明する。
この現象は、有名なEMアルゴリズムから導かれたクラスタリング法を使用する際の順序の自然な適応性である。
対象分布におけるクランプ数を表す新しい統計量である相対エントロピー順序を定義する。
論文 参考訳(メタデータ) (2022-03-22T07:47:02Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Provably Strict Generalisation Benefit for Invariance in Kernel Methods [0.0]
Elesedy と Zaidi arXiv:2102.10333 の函数空間パースペクティブの上に構築し、厳密な非ゼロ一般化の利点を導出する。
一般化は、カーネルと群の間の相互作用から生じる有効次元の概念によって支配される。
論文 参考訳(メタデータ) (2021-06-04T08:55:28Z) - Pathwise Conditioning of Gaussian Processes [72.61885354624604]
ガウス過程後部をシミュレーションするための従来のアプローチでは、有限個の入力位置のプロセス値の限界分布からサンプルを抽出する。
この分布中心の特徴づけは、所望のランダムベクトルのサイズで3次スケールする生成戦略をもたらす。
条件付けのこのパスワイズ解釈が、ガウス過程の後部を効率的にサンプリングするのに役立てる近似の一般族をいかに生み出すかを示す。
論文 参考訳(メタデータ) (2020-11-08T17:09:37Z) - GANs with Variational Entropy Regularizers: Applications in Mitigating
the Mode-Collapse Issue [95.23775347605923]
深層学習の成功に基づいて、GAN(Generative Adversarial Networks)は、観測されたサンプルから確率分布を学習するための現代的なアプローチを提供する。
GANはしばしば、ジェネレータが入力分布の既存のすべてのモードをキャプチャできないモード崩壊問題に悩まされる。
情報理論のアプローチを採り、生成したサンプルのエントロピーの変動的下限を最大化し、それらの多様性を増大させる。
論文 参考訳(メタデータ) (2020-09-24T19:34:37Z) - Convex Representation Learning for Generalized Invariance in
Semi-Inner-Product Space [32.442549424823355]
本研究では, 半ノルムにおける多種多様な一般化表現のアルゴリズムを開発し, 先頭の表現子を定式化し, 境界を定式化する。
これにより、正確な予測とともに、我々の実験で確認されているように、表現を効率的かつ効果的に学習することができる。
論文 参考訳(メタデータ) (2020-04-25T18:54:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。