論文の概要: Supervised learning of sheared distributions using linearized optimal
transport
- arxiv url: http://arxiv.org/abs/2201.10590v1
- Date: Tue, 25 Jan 2022 19:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 00:15:36.419228
- Title: Supervised learning of sheared distributions using linearized optimal
transport
- Title(参考訳): 線形最適輸送を用いたせん断分布の教師あり学習
- Authors: Varun Khurana, Harish Kannan, Alexander Cloninger, Caroline
Moosm\"uller
- Abstract要約: 本稿では,確率測度空間における教師付き学習課題について検討する。
最適輸送フレームワークを用いて確率測度の空間を$L2$空間に埋め込むことでこの問題に対処する。
正規の機械学習技術は線形分離性を達成するために使われる。
- 参考スコア(独自算出の注目度): 64.53761005509386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we study supervised learning tasks on the space of probability
measures. We approach this problem by embedding the space of probability
measures into $L^2$ spaces using the optimal transport framework. In the
embedding spaces, regular machine learning techniques are used to achieve
linear separability. This idea has proved successful in applications and when
the classes to be separated are generated by shifts and scalings of a fixed
measure. This paper extends the class of elementary transformations suitable
for the framework to families of shearings, describing conditions under which
two classes of sheared distributions can be linearly separated. We furthermore
give necessary bounds on the transformations to achieve a pre-specified
separation level, and show how multiple embeddings can be used to allow for
larger families of transformations. We demonstrate our results on image
classification tasks.
- Abstract(参考訳): 本稿では,確率測度の空間における教師付き学習タスクについて検討する。
最適輸送フレームワークを用いて確率測度の空間を$L^2$空間に埋め込むことでこの問題に対処する。
埋め込み空間では、線形分離性を達成するために正規の機械学習技術が使用される。
このアイデアはアプリケーションで成功し、分離すべきクラスが一定の尺度のシフトとスケーリングによって生成される。
本稿では,2種類のせん断分布を線形に分離できる条件を記述し,その枠組みに適した基本変換のクラスをせん断の族に拡張する。
さらに、事前特定された分離レベルを達成するために変換に必要な境界を与え、変換のより大きな族を可能にするために複数の埋め込みをどのように利用できるかを示す。
画像分類タスクの結果を示す。
関連論文リスト
- Transformation-Invariant Learning and Theoretical Guarantees for OOD Generalization [34.036655200677664]
本稿では、(データ)変換マップのクラスによって、列車とテストの分布を関連付けることができる分散シフト設定に焦点を当てる。
経験的リスク最小化(ERM)に対する学習ルールとアルゴリズムの削減を確立する。
我々は,学習ルールが分配シフトに関するゲーム理論的な視点を提供する点を強調した。
論文 参考訳(メタデータ) (2024-10-30T20:59:57Z) - SimO Loss: Anchor-Free Contrastive Loss for Fine-Grained Supervised Contrastive Learning [0.0]
提案した類似性-直交性(SimO)損失を利用したアンカーフリーコントラスト学習(L)手法を提案する。
提案手法は,2つの主目的を同時に最適化するセミメトリック判別損失関数を最小化する。
埋め込み空間におけるSimO損失の影響を可視化する。
論文 参考訳(メタデータ) (2024-10-07T17:41:10Z) - Linear optimal transport subspaces for point set classification [12.718843888673227]
本研究では,ある種類の空間的変形を経験する点集合を分類する枠組みを提案する。
提案手法では,Linear Optimal Transport (LOT) 変換を用いて,集合構造データの線形埋め込みを求める。
様々な点集合分類タスクにおける最先端の手法と比較して、競争力のある精度を達成する。
論文 参考訳(メタデータ) (2024-03-15T04:39:27Z) - Learning representations that are closed-form Monge mapping optimal with
application to domain adaptation [24.258758784011572]
最適輸送(OT)は、最小の努力原理に従って確率測度を比較し調整するための強力なツールである。
機械学習(ML)で広く使われているにもかかわらず、OT問題はまだ計算負担を負っている。
本稿では,これらの課題に表現学習を用いて取り組むことを提案する。
論文 参考訳(メタデータ) (2023-05-12T14:14:39Z) - Unsupervised Manifold Linearizing and Clustering [19.879641608165887]
本稿では、データ表現と2重クラスタメンバシップの両方に関して、最大符号化削減度を最適化することを提案する。
CIFAR-10, -20, -100, TinyImageNet-200データセットに対する実験により,提案手法は最先端のディープクラスタリング手法よりもはるかに正確でスケーラブルであることが示された。
論文 参考訳(メタデータ) (2023-01-04T20:08:23Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Reinforcement Learning in Factored Action Spaces using Tensor
Decompositions [92.05556163518999]
本稿では, テンソル分解を用いた大規模因子化行動空間における強化学習(RL)のための新しい解を提案する。
我々は,協調型マルチエージェント強化学習シナリオを模範として用いた。
論文 参考訳(メタデータ) (2021-10-27T15:49:52Z) - The Advantage of Conditional Meta-Learning for Biased Regularization and
Fine-Tuning [50.21341246243422]
バイアスレギュラー化と微調整は、最近の2つのメタラーニングアプローチである。
本稿では,条件付き関数マッピングタスクの側情報をメタパラメータベクトルに推論する条件付きメタラーニングを提案する。
次に、実際には同等の利点をもたらす凸メタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-25T07:32:16Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Rethinking preventing class-collapsing in metric learning with
margin-based losses [81.22825616879936]
メトリクス学習は、視覚的に類似したインスタンスが近接し、異なるインスタンスが分離した埋め込みを求める。
マージンベースの損失は、クラスの全サンプルを埋め込み空間の単一点に投影する傾向がある。
そこで本研究では,各サンプルが最寄りの同一クラスをバッチで選択するように,埋め込み損失の簡易な修正を提案する。
論文 参考訳(メタデータ) (2020-06-09T09:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。