論文の概要: A Distance Metric Learning Model Based On Variational Information
Bottleneck
- arxiv url: http://arxiv.org/abs/2403.02794v1
- Date: Tue, 5 Mar 2024 09:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:33:20.917125
- Title: A Distance Metric Learning Model Based On Variational Information
Bottleneck
- Title(参考訳): 変動情報ボトルネックに基づく距離距離学習モデル
- Authors: YaoDan Zhang, Zidong Wang, Ru Jia and Ru Li
- Abstract要約: 本稿では、評価予測のための新しいメトリクス学習モデルVIB-DML(Variational Information Bottleneck Distance Metric Learning)を提案する。
その結果、VIB-DMLの一般化は優れており、一般的なメトリック学習モデルであるMetricFと比較すると、予測誤差は7.29%減少することがわかった。
- 参考スコア(独自算出の注目度): 34.06440004780627
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, personalized recommendation technology has flourished and
become one of the hot research directions. The matrix factorization model and
the metric learning model which proposed successively have been widely studied
and applied. The latter uses the Euclidean distance instead of the dot product
used by the former to measure the latent space vector. While avoiding the
shortcomings of the dot product, the assumption of Euclidean distance is
neglected, resulting in limited recommendation quality of the model. In order
to solve this problem, this paper combines the Variationl Information
Bottleneck with metric learning model for the first time, and proposes a new
metric learning model VIB-DML (Variational Information Bottleneck Distance
Metric Learning) for rating prediction, which limits the mutual information of
the latent space feature vector to improve the robustness of the model and
satisfiy the assumption of Euclidean distance by decoupling the latent space
feature vector. In this paper, the experimental results are compared with the
root mean square error (RMSE) on the three public datasets. The results show
that the generalization ability of VIB-DML is excellent. Compared with the
general metric learning model MetricF, the prediction error is reduced by
7.29%. Finally, the paper proves the strong robustness of VIBDML through
experiments.
- Abstract(参考訳): 近年、パーソナライズドレコメンデーション技術が発展し、ホットな研究方向の1つとなっている。
行列因数分解モデルと連続的に提案する計量学習モデルが広く研究され応用されている。
後者は、前者によって使われるドット積の代わりにユークリッド距離を用いて、潜在空間ベクトルを測る。
ドット積の欠点を避ける一方で、ユークリッド距離の仮定は無視され、モデルの推奨品質が制限される。
そこで本稿では,本論文で初めて変動情報ボトルネックと計量学習モデルを組み合わせた評価モデルvib-dml(variational information bottleneck distance metric learning)を提案し,潜在空間特徴ベクトルの相互情報を制限することにより,モデルの頑健性を高め,潜在空間特徴ベクトルを分離することでユークリッド距離の仮定を満たす。
本稿では,3つの公開データセットにおける根平均二乗誤差(rmse)との比較を行った。
その結果,VIB-DMLの一般化能力は優れていた。
一般的なメトリック学習モデルであるmetricfと比較すると、予測誤差は7.29%減少する。
最後に,実験によるVIBDMLの強靭性を示す。
関連論文リスト
- Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - Curvature Augmented Manifold Embedding and Learning [9.195829534223982]
CAMEL(Curvature-Augmented Manifold Embedding and Learning)を提案する。
重要な新しい貢献は、DR問題を力学・物理モデルとして定式化することである。
従来の誘引力に基づく多くの手法と比較して,提案手法の独特な貢献は,非対角力を含むことである。
論文 参考訳(メタデータ) (2024-03-21T19:59:07Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Learning new physics efficiently with nonparametric methods [11.970219534238444]
モデルに依存しない新しい物理探索のための機械学習手法を提案する。
対応するアルゴリズムは、最近のカーネルメソッドの大規模実装によって実現されている。
トレーニング時間や計算資源の観点から、ニューラルネットワークの実装と比較して、我々のアプローチは劇的なアドバンテージがあることが示される。
論文 参考訳(メタデータ) (2022-04-05T16:17:59Z) - Hyperbolic Vision Transformers: Combining Improvements in Metric
Learning [116.13290702262248]
計量学習のための新しい双曲型モデルを提案する。
本手法のコアとなるのは、双曲空間にマッピングされた出力埋め込みを備えた視覚変換器である。
4つのデータセットに6つの異なる定式化を施したモデルの評価を行った。
論文 参考訳(メタデータ) (2022-03-21T09:48:23Z) - Benign-Overfitting in Conditional Average Treatment Effect Prediction
with Linear Regression [14.493176427999028]
線形回帰モデルを用いて条件平均処理効果(CATE)の予測における良性過剰適合理論について検討した。
一方,IPW-learnerは確率スコアが分かっていればリスクをゼロに収束させるが,T-learnerはランダムな割り当て以外の一貫性を達成できないことを示す。
論文 参考訳(メタデータ) (2022-02-10T18:51:52Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - A Data-driven feature selection and machine-learning model benchmark for
the prediction of longitudinal dispersion coefficient [29.58577229101903]
縦方向分散(LD)係数の正確な予測は、関連するシミュレーションにおいて性能の飛躍をもたらすことができる。
本研究では, 蒸留した局所最適値と代表MLモデルとの数値比較により, 大域的最適特徴集合を提案した。
その結果,サポートベクタマシンは他のモデルよりも大幅に性能が向上していることがわかった。
論文 参考訳(メタデータ) (2021-07-16T09:50:38Z) - Exploring Adversarial Robustness of Deep Metric Learning [25.12224002984514]
DMLはディープニューラルネットワークアーキテクチャを使用して、入力のセマンティック埋め込みを学習する。
私たちは、ミニバッチのサンプルに依存しているメトリック損失の主な課題に取り組みます。
3つの一般的なDMLデータセットの実験を使用して、逆転精度の5-76倍の増加を実証する。
論文 参考訳(メタデータ) (2021-02-14T23:18:12Z) - Machine learning for causal inference: on the use of cross-fit
estimators [77.34726150561087]
より優れた統計特性を得るために、二重ローバストなクロスフィット推定器が提案されている。
平均因果効果(ACE)に対する複数の推定器の性能評価のためのシミュレーション研究を行った。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-21T23:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。