論文の概要: Supervised learning of sheared distributions using linearized optimal
transport
- arxiv url: http://arxiv.org/abs/2201.10590v1
- Date: Tue, 25 Jan 2022 19:19:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 00:15:36.419228
- Title: Supervised learning of sheared distributions using linearized optimal
transport
- Title(参考訳): 線形最適輸送を用いたせん断分布の教師あり学習
- Authors: Varun Khurana, Harish Kannan, Alexander Cloninger, Caroline
Moosm\"uller
- Abstract要約: 本稿では,確率測度空間における教師付き学習課題について検討する。
最適輸送フレームワークを用いて確率測度の空間を$L2$空間に埋め込むことでこの問題に対処する。
正規の機械学習技術は線形分離性を達成するために使われる。
- 参考スコア(独自算出の注目度): 64.53761005509386
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we study supervised learning tasks on the space of probability
measures. We approach this problem by embedding the space of probability
measures into $L^2$ spaces using the optimal transport framework. In the
embedding spaces, regular machine learning techniques are used to achieve
linear separability. This idea has proved successful in applications and when
the classes to be separated are generated by shifts and scalings of a fixed
measure. This paper extends the class of elementary transformations suitable
for the framework to families of shearings, describing conditions under which
two classes of sheared distributions can be linearly separated. We furthermore
give necessary bounds on the transformations to achieve a pre-specified
separation level, and show how multiple embeddings can be used to allow for
larger families of transformations. We demonstrate our results on image
classification tasks.
- Abstract(参考訳): 本稿では,確率測度の空間における教師付き学習タスクについて検討する。
最適輸送フレームワークを用いて確率測度の空間を$L^2$空間に埋め込むことでこの問題に対処する。
埋め込み空間では、線形分離性を達成するために正規の機械学習技術が使用される。
このアイデアはアプリケーションで成功し、分離すべきクラスが一定の尺度のシフトとスケーリングによって生成される。
本稿では,2種類のせん断分布を線形に分離できる条件を記述し,その枠組みに適した基本変換のクラスをせん断の族に拡張する。
さらに、事前特定された分離レベルを達成するために変換に必要な境界を与え、変換のより大きな族を可能にするために複数の埋め込みをどのように利用できるかを示す。
画像分類タスクの結果を示す。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and
Clustering with Gromov-Wasserstein Projection [50.51460159104604]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
伝統的に、これは次元還元法を用いて解釈可能な空間にデータを投影したり、意味のあるクラスタにポイントを整理する。
私たちは新しい視点 – 流通の視点 – を提供しています。
我々はクラスタリングと次元還元を分散還元と呼ばれる単一のフレームワークに統合する。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - ParsNets: A Parsimonious Orthogonal and Low-Rank Linear Networks for
Zero-Shot Learning [22.823915322924304]
本稿では,ParsNetsと呼ばれるゼロショット学習(ZSL)において,既存の深層モデルに対して同等あるいはさらに優れた性能を実現するために,並列かつ効率的な設計手法を提案する。
局所線型性の一般化を容易にするため,クラス内サンプルに低ランク制約を課し,クラス間サンプルに高ランク制約を課すことにより,学習特徴量に対する最大マージン幾何学を構築した。
ZSLにおけるモデルの適応性と相反するオーバー/アンダーフィッティングを強化するために、サンプルワイドインジケータのセットを使用して、これらのベース線形ネットワークからスパースサブセットを選択して複合を形成する。
論文 参考訳(メタデータ) (2023-12-15T11:32:11Z) - Learning representations that are closed-form Monge mapping optimal with
application to domain adaptation [24.258758784011572]
最適輸送(OT)は、最小の努力原理に従って確率測度を比較し調整するための強力なツールである。
機械学習(ML)で広く使われているにもかかわらず、OT問題はまだ計算負担を負っている。
本稿では,これらの課題に表現学習を用いて取り組むことを提案する。
論文 参考訳(メタデータ) (2023-05-12T14:14:39Z) - Unsupervised Manifold Linearizing and Clustering [19.879641608165887]
本稿では、データ表現と2重クラスタメンバシップの両方に関して、最大符号化削減度を最適化することを提案する。
CIFAR-10, -20, -100, TinyImageNet-200データセットに対する実験により,提案手法は最先端のディープクラスタリング手法よりもはるかに正確でスケーラブルであることが示された。
論文 参考訳(メタデータ) (2023-01-04T20:08:23Z) - Task-Specific Embeddings for Ante-Hoc Explainable Text Classification [6.671252951387647]
テキストのタスク固有の埋め込みを学習する学習目標を提案する。
提案する目的は,同一のクラスラベルを共有するすべてのテキストが近接しているように埋め込みを学習することである。
本研究は, 総合的な分類精度において, アンテホックな説明可能性と漸進的な学習の利点が無コストで得られることを示す広範囲な実験である。
論文 参考訳(メタデータ) (2022-11-30T19:56:25Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Reinforcement Learning in Factored Action Spaces using Tensor
Decompositions [92.05556163518999]
本稿では, テンソル分解を用いた大規模因子化行動空間における強化学習(RL)のための新しい解を提案する。
我々は,協調型マルチエージェント強化学習シナリオを模範として用いた。
論文 参考訳(メタデータ) (2021-10-27T15:49:52Z) - The Advantage of Conditional Meta-Learning for Biased Regularization and
Fine-Tuning [50.21341246243422]
バイアスレギュラー化と微調整は、最近の2つのメタラーニングアプローチである。
本稿では,条件付き関数マッピングタスクの側情報をメタパラメータベクトルに推論する条件付きメタラーニングを提案する。
次に、実際には同等の利点をもたらす凸メタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-25T07:32:16Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。