論文の概要: Fast Regularized Discrete Optimal Transport with Group-Sparse
Regularizers
- arxiv url: http://arxiv.org/abs/2303.07597v1
- Date: Tue, 14 Mar 2023 02:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 16:33:36.069442
- Title: Fast Regularized Discrete Optimal Transport with Group-Sparse
Regularizers
- Title(参考訳): グループスパース正規化器を用いた高速規則化離散輸送
- Authors: Yasutoshi Ida, Sekitoshi Kanai, Kazuki Adachi, Atsutoshi Kumagai,
Yasuhiro Fujiwara
- Abstract要約: 本稿では,グループスパース正規化器を用いた高速離散最適輸送を提案する。
実験の結果,本手法は従来の手法よりも最大8.6倍高速であることがわかった。
- 参考スコア(独自算出の注目度): 27.021749335548307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regularized discrete optimal transport (OT) is a powerful tool to measure the
distance between two discrete distributions that have been constructed from
data samples on two different domains. While it has a wide range of
applications in machine learning, in some cases the sampled data from only one
of the domains will have class labels such as unsupervised domain adaptation.
In this kind of problem setting, a group-sparse regularizer is frequently
leveraged as a regularization term to handle class labels. In particular, it
can preserve the label structure on the data samples by corresponding the data
samples with the same class label to one group-sparse regularization term. As a
result, we can measure the distance while utilizing label information by
solving the regularized optimization problem with gradient-based algorithms.
However, the gradient computation is expensive when the number of classes or
data samples is large because the number of regularization terms and their
respective sizes also turn out to be large. This paper proposes fast discrete
OT with group-sparse regularizers. Our method is based on two ideas. The first
is to safely skip the computations of the gradients that must be zero. The
second is to efficiently extract the gradients that are expected to be nonzero.
Our method is guaranteed to return the same value of the objective function as
that of the original method. Experiments show that our method is up to 8.6
times faster than the original method without degrading accuracy.
- Abstract(参考訳): 正規化された離散最適輸送(OT)は、2つの異なる領域のデータサンプルから構築された2つの離散分布間の距離を測定する強力なツールである。
機械学習には幅広い応用があるが、ある場合には、あるドメインの1つのサンプルデータだけが教師なしのドメイン適応のようなクラスラベルを持つことになる。
このような問題設定では、クラスラベルを扱うための正規化用語としてグループスパース正規化器が頻繁に利用される。
特に、同じクラスラベルでデータサンプルを1つのグループスパース正規化項に対応させることで、データサンプルのラベル構造を保存することができる。
その結果,グラデーションに基づくアルゴリズムを用いた正規化最適化問題を解くことにより,ラベル情報を利用して距離を計測できる。
しかし、正規化項の数やそれぞれのサイズも大きいため、クラス数やデータサンプル数が大きくなると勾配計算は高価である。
本稿ではグループスパース正規化器を用いた高速離散OTを提案する。
我々の方法は2つの考えに基づいている。
1つ目は、ゼロでなければならない勾配の計算を安全にスキップすることである。
2つ目は、非ゼロであると期待される勾配を効率的に抽出することである。
提案手法は,対象関数の値が元のメソッドと同じであることを保証している。
実験の結果,本手法は8.6倍高速であり,精度は低下しないことがわかった。
関連論文リスト
- An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - Efficient and Flexible Sublabel-Accurate Energy Minimization [62.50191141358778]
データと滑らかさの項からなるエネルギー関数のクラスを最小化する問題に対処する。
既存の連続最適化手法は、サブラベル精度の高い解を見つけることができるが、大きなラベル空間では効率が良くない。
本稿では,連続モデルと離散モデルの両方の最適特性を利用する効率的なサブラベル精度手法を提案する。
論文 参考訳(メタデータ) (2022-06-20T06:58:55Z) - Cycle Label-Consistent Networks for Unsupervised Domain Adaptation [57.29464116557734]
ドメイン適応は、ラベル付きソースドメインを活用して、異なる分布を持つラベル付きターゲットドメインの分類子を学ぶことを目的としています。
本稿では,分類ラベルのサイクル整合性を利用して,シンプルで効率的な領域適応手法,すなわちCycle Label-Consistent Network (CLCN)を提案する。
MNIST-USPS-SVHN, Office-31, Office-Home, Image CLEF-DAベンチマークに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-27T13:09:08Z) - Optimizing Diffusion Rate and Label Reliability in a Graph-Based
Semi-supervised Classifier [2.4366811507669124]
Local and Global Consistency (LGC)アルゴリズムは、グラフベースの半教師付き半教師付き(GSSL)分類器の1つである。
ラベル付きインスタンスの自己影響を取り除くことは、どのように有用か、そして、それがアウト・ワン・アウトエラーにどのように関係するかについて議論する。
本研究では,ラベルの信頼性と拡散率を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T16:58:52Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Coping with Label Shift via Distributionally Robust Optimisation [72.80971421083937]
分散ロバスト最適化(DRO)に基づく目的最小化モデルを提案する。
そこで我々は,提案した目的を最適化するために,大規模問題に適した勾配降下近位ミラー上昇アルゴリズムを設計し,解析する。
論文 参考訳(メタデータ) (2020-10-23T08:33:04Z) - Identifying noisy labels with a transductive semi-supervised
leave-one-out filter [2.4366811507669124]
本稿では,LGC_LVOF(Local and Global Consistency (LGC) アルゴリズムに基づく一括フィルタリング手法)を導入する。
私たちのアプローチは、大量のラベルのないデータを持つデータセットに最も適していますが、ラベルは多くありません。
論文 参考訳(メタデータ) (2020-09-24T16:50:06Z) - Gradient Descent in RKHS with Importance Labeling [58.79085525115987]
我々は重要ラベル付け問題について研究し、ラベルなしデータが多く与えられている。
ラベルなしデータの情報サブセットを効果的に選択できる新しい重要ラベル方式を提案する。
論文 参考訳(メタデータ) (2020-06-19T01:55:00Z) - Sparsely-Labeled Source Assisted Domain Adaptation [64.75698236688729]
本稿では,Sparsely-Labeled Source Assisted Domain Adaptation (SLSA-DA)アルゴリズムを提案する。
ラベル不足の問題により、ソースドメインとターゲットドメインの両方で投影されたクラスタリングが行われる。
論文 参考訳(メタデータ) (2020-05-08T15:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。