論文の概要: On the Sample Complexity of Learning with Geometric Stability
- arxiv url: http://arxiv.org/abs/2106.07148v1
- Date: Mon, 14 Jun 2021 03:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:27:16.550959
- Title: On the Sample Complexity of Learning with Geometric Stability
- Title(参考訳): 幾何学的安定性をもつ学習のサンプル複雑性について
- Authors: Alberto Bietti, Luca Venturi, Joan Bruna
- Abstract要約: 対象関数がそのような不変性や安定性を示す学習問題のサンプル複雑性について検討する。
カーネル法における非パラメトリック収束率と,グループの大きさに等しい因子によるサンプル複雑性の改善について述べる。
- 参考スコア(独自算出の注目度): 42.813141600050166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many supervised learning problems involve high-dimensional data such as
images, text, or graphs. In order to make efficient use of data, it is often
useful to leverage certain geometric priors in the problem at hand, such as
invariance to translations, permutation subgroups, or stability to small
deformations. We study the sample complexity of learning problems where the
target function presents such invariance and stability properties, by
considering spherical harmonic decompositions of such functions on the sphere.
We provide non-parametric rates of convergence for kernel methods, and show
improvements in sample complexity by a factor equal to the size of the group
when using an invariant kernel over the group, compared to the corresponding
non-invariant kernel. These improvements are valid when the sample size is
large enough, with an asymptotic behavior that depends on spectral properties
of the group. Finally, these gains are extended beyond invariance groups to
also cover geometric stability to small deformations, modeled here as subsets
(not necessarily subgroups) of permutations.
- Abstract(参考訳): 多くの教師付き学習問題は、画像、テキスト、グラフなどの高次元データを含む。
データの効率的な利用のために、翻訳への不変性、置換部分群、小さな変形に対する安定性などの問題における幾何的先行性を利用するのが有用である。
本研究では,球面上の関数の球面調和分解を考慮し,対象関数がそのような不変性と安定性特性を示す学習問題のサンプル複雑性について検討する。
我々は、カーネル法における非パラメトリック収束率を示し、対応する非不変カーネルと比較して、グループ上の不変カーネルを使用する場合の、グループのサイズに等しい係数によるサンプル複雑性の改善を示す。
これらの改善は、サンプルサイズが十分に大きい場合に有効であり、群のスペクトル特性に依存する漸近的な挙動を持つ。
最後に、これらのゲインは不変群を超えて拡張され、幾何学的安定性を小さな変形までカバーし、ここで置換の部分集合(必ずしも部分群ではない)としてモデル化される。
関連論文リスト
- Lie Group Decompositions for Equivariant Neural Networks [12.139222986297261]
コンボリューションカーネルをパラメータ化してアフィン変換に対する同変モデルを構築する方法を示す。
我々は,ベンチマークアフィン不変分類タスクにおいて,モデルのロバスト性と分布外一般化能力を評価する。
論文 参考訳(メタデータ) (2023-10-17T16:04:33Z) - Gradient-Based Feature Learning under Structured Data [57.76552698981579]
異方性設定では、一般的に使用される球面勾配力学は真の方向を回復できないことがある。
バッチ正規化を連想させる適切な重み正規化は、この問題を軽減することができることを示す。
特に、スパイクモデルの下では、勾配に基づくトレーニングのサンプルの複雑さは情報指数とは独立にできる。
論文 参考訳(メタデータ) (2023-09-07T16:55:50Z) - Statistical Guarantees of Group-Invariant GANs [13.084804346845816]
GAN(Group-invariant Generative Adversarial Network)は、ジェネレータと識別器を群対称性で固定したGANの一種である。
本研究は,グループ不変な生成モデル,特にGANに対する最初の統計的性能保証を示す。
論文 参考訳(メタデータ) (2023-05-22T22:13:12Z) - The Exact Sample Complexity Gain from Invariances for Kernel Regression [37.74032673086741]
実際には、モデルの不変性を符号化することで、サンプルの複雑さが向上する。
コンパクト多様体上でのカーネルリッジ回帰に対する最小値の最適値を与える。
我々の結果は任意の滑らかなコンパクトリー群作用、あるいは正次元の群に対しても成り立つ。
論文 参考訳(メタデータ) (2023-03-24T20:47:31Z) - Equivariant Representation Learning in the Presence of Stabilizers [13.11108596589607]
EquIN は自由でない群作用、すなわち非自明な対称性によってデータを安定化する群作用に適している。
EquIN は理論上、群論の軌道安定化定理に基礎を置いている。
論文 参考訳(メタデータ) (2023-01-12T11:43:26Z) - Equivariant Disentangled Transformation for Domain Generalization under
Combination Shift [91.38796390449504]
ドメインとラベルの組み合わせは、トレーニング中に観察されるのではなく、テスト環境に現れる。
我々は、同型の概念、同値性、および整合性の定義に基づく結合シフト問題の一意的な定式化を提供する。
論文 参考訳(メタデータ) (2022-08-03T12:31:31Z) - Local versions of sum-of-norms clustering [77.34726150561087]
本手法はボールモデルにおいて任意に閉じた球を分離できることを示す。
我々は、不連結連結集合のクラスタリングで発生する誤差に定量的な有界性を証明した。
論文 参考訳(メタデータ) (2021-09-20T14:45:29Z) - Group Equivariant Conditional Neural Processes [30.134634059773703]
群同変条件ニューラルプロセス(EquivCNP)を提案する。
EquivCNPは1次元回帰タスクにおいて従来の条件付きニューラルプロセスに匹敵する性能を示す。
論文 参考訳(メタデータ) (2021-02-17T13:50:07Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z) - Invariant Feature Coding using Tensor Product Representation [75.62232699377877]
我々は,群不変特徴ベクトルが線形分類器を学習する際に十分な識別情報を含んでいることを証明した。
主成分分析やk平均クラスタリングにおいて,グループアクションを明示的に考慮する新たな特徴モデルを提案する。
論文 参考訳(メタデータ) (2019-06-05T07:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。