論文の概要: Metric-valued regression
- arxiv url: http://arxiv.org/abs/2202.03045v1
- Date: Mon, 7 Feb 2022 10:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 01:41:00.154165
- Title: Metric-valued regression
- Title(参考訳): 計量値回帰
- Authors: Dan Tsir Cohen and Aryeh Kontorovich
- Abstract要約: 本稿では,2つの距離空間間のマッピングを効率よく学習するアルゴリズムを提案する。
このレベルの一般性において、我々は無知環境における損失に対する学習可能性の最初の結果である。
- 参考スコア(独自算出の注目度): 9.78225953651633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an efficient algorithm for learning mappings between two metric
spaces, $\X$ and $\Y$. Our procedure is strongly Bayes-consistent whenever $\X$
and $\Y$ are topologically separable and $\Y$ is "bounded in expectation" (our
term; the separability assumption can be somewhat weakened). At this level of
generality, ours is the first such learnability result for unbounded loss in
the agnostic setting. Our technique is based on metric medoids (a variant of
Fr\'echet means) and presents a significant departure from existing methods,
which, as we demonstrate, fail to achieve Bayes-consistency on general
instance- and label-space metrics. Our proofs introduce the technique of {\em
semi-stable compression}, which may be of independent interest.
- Abstract(参考訳): 2つの距離空間間のマッピングを学ぶための効率的なアルゴリズム, $\x$ と $\y$ を提案する。
我々の手続きは、$\X$ と $\Y$ が位相的に分離可能であり、$\Y$ が期待で有界であるときにいつでも強くベイズ整合である(言い換えれば、分離性仮定はやや弱くなる)。
このレベルの一般性において、我々は無知環境における非有界損失に対する最初の学習可能性の結果である。
この手法は計量メドロイド(fr\'echet means の変種)に基づいており、既存の手法から大きく逸脱しており、我々が示すように、一般的なインスタンスとラベル空間のメトリクスではベイズ一貫性を達成できていない。
我々の証明は、独立興味を持つかもしれない半安定圧縮のテクニックを導入している。
関連論文リスト
- Perturb-and-Project: Differentially Private Similarities and Marginals [73.98880839337873]
差分プライバシーのための入力摂動フレームワークを再検討し、入力にノイズを付加する。
まず、ペアワイズ・コサイン類似性をプライベートにリリースするための新しい効率的なアルゴリズムを設計する。
我々は,$k$の辺縁クエリを$n$の機能に対して計算する新しいアルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-06-07T12:07:16Z) - When are Local Queries Useful for Robust Learning? [25.832511407411637]
本研究では,学習者が局所的なクエリを用いてより多くのパワーを与えられる学習モデルについて検討する。
我々は、ロバストな経験的リスク最小化を行う最初の分布自由アルゴリズムを与える。
我々は、0,1n$でハーフスペースに対してロバストな学習アルゴリズムを与え、その後、精度に縛られた敵に対して$mathbbRn$でハーフスペースに対してロバスト性を保証する。
論文 参考訳(メタデータ) (2022-10-12T11:04:22Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - Robust Linear Regression for General Feature Distribution [21.0709900887309]
本研究では, 不正な相手によってデータが汚染されるような頑健な線形回帰について検討する。
必ずしもその機能が中心であるとは限らない。
特徴が中心ならば、標準収束率を得ることができる。
論文 参考訳(メタデータ) (2022-02-04T11:22:13Z) - FriendlyCore: Practical Differentially Private Aggregation [67.04951703461657]
我々は、制約のない(擬似)計量空間から点の集合を$cal D$として取り出す、単純で実用的なツールである$mathsfFriendlyCore$を提案する。
$cal D$ が有効直径 $r$ を持つとき、$mathsfFriendlyCore$ はすべての点を含む "stable" サブセット $cal D_Gsubseteq cal D$ を返す。
$mathsfFriendlyCore$は、プライベートに集約する前に入力を前処理するために使用することができる。
論文 参考訳(メタデータ) (2021-10-19T17:43:50Z) - Provable Robustness of Adversarial Training for Learning Halfspaces with
Noise [95.84614821570283]
ラベル雑音の存在下での敵対的ロバストなハーフスペースの特性を分析する。
我々の知る限りでは、これは敵の訓練がノイズの分類子を与えることを示す最初の研究である。
論文 参考訳(メタデータ) (2021-04-19T16:35:38Z) - Sample Complexity of Adversarially Robust Linear Classification on
Separated Data [41.30425613353595]
対向的堅牢性を伴う学習の複雑さについて考察する。
非常に分離されたデータの場合、$o(frac1n)$の収束率は達成可能である。
論文 参考訳(メタデータ) (2020-12-19T22:04:59Z) - Agnostic Learning of Halfspaces with Gradient Descent via Soft Margins [92.7662890047311]
勾配降下は、分類誤差$tilde O(mathsfOPT1/2) + varepsilon$ in $mathrmpoly(d,1/varepsilon)$ time and sample complexity.
論文 参考訳(メタデータ) (2020-10-01T16:48:33Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z) - Differentiable Linear Bandit Algorithm [6.849358422233866]
アッパー信頼境界は、線形多腕バンディット問題の最も一般的な方法である。
勾配上昇による信頼度を学習できる勾配推定器を導入する。
提案アルゴリズムは,腕の特徴の次元を$d$で,信頼度を$hatbeta$で学習したサイズを$tildemathcalO(hatbetasqrtdT)$上限とする。
論文 参考訳(メタデータ) (2020-06-04T16:43:55Z) - Entropy Regularized Power k-Means Clustering [21.013169939337583]
本稿では、クローズドフォーム更新と収束保証を享受できるスケーラブルな大規模化最小化アルゴリズムを提案する。
我々の手法は、$k$-meansと$k$-meansと同じ計算量を維持しているが、どちらも大幅に改善されている。
論文 参考訳(メタデータ) (2020-01-10T14:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。