論文の概要: Statistical learning on measures: an application to persistence diagrams
- arxiv url: http://arxiv.org/abs/2303.08456v1
- Date: Wed, 15 Mar 2023 09:01:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:17:31.887310
- Title: Statistical learning on measures: an application to persistence diagrams
- Title(参考訳): 測度に関する統計的学習--持続性図への応用
- Authors: Olympio Hacquard (LMO, DATASHAPE)
- Abstract要約: 有限次元ユークリッド空間にデータを持つ代わりに、コンパクト空間 $mathcalX$ の測度を観測するバイナリ教師付き学習分類問題を考える。
当社のフレームワークは,私たちが対処可能な入力データに対して,より柔軟性と多様性を実現しています。
このようなフレームワークは多くの可能なアプリケーションを持っていますが、この作業は永続図と呼ばれるトポロジ的記述子によるデータの分類に強く重点を置いています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a binary supervised learning classification problem where instead
of having data in a finite-dimensional Euclidean space, we observe measures on
a compact space $\mathcal{X}$. Formally, we observe data $D_N = (\mu_1, Y_1),
\ldots, (\mu_N, Y_N)$ where $\mu_i$ is a measure on $\mathcal{X}$ and $Y_i$ is
a label in $\{0, 1\}$. Given a set $\mathcal{F}$ of base-classifiers on
$\mathcal{X}$, we build corresponding classifiers in the space of measures. We
provide upper and lower bounds on the Rademacher complexity of this new class
of classifiers that can be expressed simply in terms of corresponding
quantities for the class $\mathcal{F}$. If the measures $\mu_i$ are uniform
over a finite set, this classification task boils down to a multi-instance
learning problem. However, our approach allows more flexibility and diversity
in the input data we can deal with. While such a framework has many possible
applications, this work strongly emphasizes on classifying data via topological
descriptors called persistence diagrams. These objects are discrete measures on
$\mathbb{R}^2$, where the coordinates of each point correspond to the range of
scales at which a topological feature exists. We will present several
classifiers on measures and show how they can heuristically and theoretically
enable a good classification performance in various settings in the case of
persistence diagrams.
- Abstract(参考訳): 有限次元ユークリッド空間にデータを持つ代わりに、コンパクト空間 $\mathcal{x}$ 上の測度を観測する二元教師付き学習分類問題を考える。
形式的には、$D_N = (\mu_1, Y_1), \ldots, (\mu_N, Y_N)$ ここで、$\mu_i$は$\mathcal{X}$、$Y_i$は$\{0, 1\}$のラベルである。
基本分類子の集合 $\mathcal{f}$ が $\mathcal{x}$ で与えられると、対応する分類子を測度の空間に構築する。
我々は、この新しい分類器のラデマッハ複雑性の上限を上下に与え、それは単に$\mathcal{f}$ のクラスに対応する量で表現できる。
測度 $\mu_i$ が有限集合上で一様であれば、この分類タスクはマルチインスタンス学習問題に沸騰する。
しかし、このアプローチは、私たちが対処できる入力データの柔軟性と多様性をより高めます。
このようなフレームワークには多くの可能なアプリケーションがあるが、この研究は永続性ダイアグラムと呼ばれるトポロジカルディスクリプタによるデータの分類に重点を置いている。
これらの対象は $\mathbb{R}^2$ 上の離散測度であり、各点の座標は位相的特徴が存在するスケールの範囲に対応する。
我々は,いくつかの尺度分類器を提示し,パーシステンス・ダイアグラムの様々な設定において,ヒューリスティックかつ理論的に優れた分類性能を実現する方法を示す。
関連論文リスト
- A Theory of Interpretable Approximations [61.90216959710842]
我々は、ある基底クラス $mathcalH$ の概念の小さな集合によってターゲット概念 $c$ を近似するという考え方を研究する。
任意の$mathcalH$と$c$のペアに対して、これらのケースのちょうど1つが成り立つ: (i) $c$を任意の精度で$mathcalH$で近似することはできない。
解釈可能な近似の場合、近似の複雑さに関するわずかに非自明なa-priori保証でさえ、定数(分布自由かつ精度)の近似を意味することを示す。
論文 参考訳(メタデータ) (2024-06-15T06:43:45Z) - One-Bit Quantization and Sparsification for Multiclass Linear Classification with Strong Regularization [18.427215139020625]
最高の分類は、$f(cdot) = |cdot|2$ と $lambda to infty$ によって達成されることを示す。
f(cdot) = |cdot|_infty$ とほぼ同等に機能するスパースと1ビットの解を見つけることは、大きめの $lambda$ regime においてしばしば可能である。
論文 参考訳(メタデータ) (2024-02-16T06:39:40Z) - An Approximation Theory for Metric Space-Valued Functions With A View
Towards Deep Learning [25.25903127886586]
任意のポーランド計量空間 $mathcalX$ と $mathcalY$ の間の連続写像の普遍函数近似器を構築する。
特に、必要なディラック測度数は $mathcalX$ と $mathcalY$ の構造によって決定されることを示す。
論文 参考訳(メタデータ) (2023-04-24T16:18:22Z) - Simplifying and Understanding State Space Models with Diagonal Linear
RNNs [56.33053691749856]
本研究は、離散化ステップを解消し、バニラ対角線形RNNに基づくモデルを提案する。
概念的にはるかに単純であるにもかかわらず、$mathrmDLR$は以前提案したSSMと同じくらいのパフォーマンスを示す。
また、合成シーケンス・ツー・シーケンス・タスクのスイートによって、SSMとアテンションベースモデルの表現性も特徴付ける。
論文 参考訳(メタデータ) (2022-12-01T18:53:06Z) - Multi-Task Imitation Learning for Linear Dynamical Systems [50.124394757116605]
線形システム上での効率的な模倣学習のための表現学習について検討する。
学習対象ポリシーによって生成された軌道上の模倣ギャップは、$tildeOleft(frack n_xHN_mathrmshared + frack n_uN_mathrmtargetright)$で制限されている。
論文 参考訳(メタデータ) (2022-12-01T00:14:35Z) - Automatic classification of deformable shapes [0.0]
$mathcalD$ を滑らかな 3D 曲面のデータセットとし、非結合クラス $mathitCL_j$, $j= 1, ldots, k$ に分割する。
算術D$の多くのペアに対して微分同型登録がいかに最適化されたかを示し、$mathcalD$に自動分類を実装する。
我々は$mathbbR3$の剛運動で不変な分類子を生成する。
論文 参考訳(メタデータ) (2022-11-04T15:44:56Z) - Unsupervised Learning under Latent Label Shift [21.508249151557244]
ラテントラベルシフト(LLS)における教師なし学習の導入
提案アルゴリズムは, ドメイン情報を利用して, 教師なし分類手法の状況を改善することができることを示す。
論文 参考訳(メタデータ) (2022-07-26T20:52:53Z) - FriendlyCore: Practical Differentially Private Aggregation [67.04951703461657]
我々は、制約のない(擬似)計量空間から点の集合を$cal D$として取り出す、単純で実用的なツールである$mathsfFriendlyCore$を提案する。
$cal D$ が有効直径 $r$ を持つとき、$mathsfFriendlyCore$ はすべての点を含む "stable" サブセット $cal D_Gsubseteq cal D$ を返す。
$mathsfFriendlyCore$は、プライベートに集約する前に入力を前処理するために使用することができる。
論文 参考訳(メタデータ) (2021-10-19T17:43:50Z) - Regular Polytope Networks [29.44144177954405]
我々は、変換は精度を損なわず、メモリ使用量を減らすことなく修正できると主張しています。
また、固定および最大分離埋め込みを学ぶために使用することができます。
埋め込みの定常性とその最大分離表現を理論的に正当化できることを示した。
論文 参考訳(メタデータ) (2021-03-29T14:11:32Z) - On the Theory of Transfer Learning: The Importance of Task Diversity [114.656572506859]
一般的な関数クラス$mathcalF circ MathcalH$において、$f_j circ h$という形の関数によってパラメータ化される$t+1$タスクを考える。
多様なトレーニングタスクに対して、最初の$t$のトレーニングタスク間で共有表現を学ぶのに必要なサンプルの複雑さが、$C(mathcalH) + t C(mathcalF)$であることを示す。
論文 参考訳(メタデータ) (2020-06-20T20:33:59Z) - Neural Bayes: A Generic Parameterization Method for Unsupervised
Representation Learning [175.34232468746245]
本稿ではニューラルベイズと呼ばれるパラメータ化手法を提案する。
これは一般に計算が難しい統計量の計算を可能にする。
このパラメータ化のための2つの独立したユースケースを示す。
論文 参考訳(メタデータ) (2020-02-20T22:28:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。