論文の概要: Information Loss in Euclidean Preference Models
- arxiv url: http://arxiv.org/abs/2208.08160v1
- Date: Wed, 17 Aug 2022 09:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 12:44:17.409955
- Title: Information Loss in Euclidean Preference Models
- Title(参考訳): ユークリッド選好モデルにおける情報損失
- Authors: Luke Thorburn, Maria Polukarov, Carmine Ventre
- Abstract要約: ほぼすべての好みプロファイルがユークリッドモデルでは表現できないことを示す。
ある場合において、任意の選好の近似に近い真の選好は、埋め込みの次元が個人または代替物の数の実質的な分数である場合にのみ可能である。
- 参考スコア(独自算出の注目度): 5.124256074746721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial models of preference, in the form of vector embeddings, are learned
by many deep learning systems including recommender systems. Often these models
are assumed to approximate a Euclidean structure, where an individual prefers
alternatives positioned closer to their "ideal point", as measured by the
Euclidean metric. However, Bogomolnaia and Laslier (2007) showed that there
exist ordinal preference profiles that cannot be represented with this
structure if the Euclidean space has two fewer dimensions than there are
individuals or alternatives. We extend this result, showing that there are
realistic situations in which almost all preference profiles cannot be
represented with the Euclidean model, and derive a theoretical lower bound on
the information lost when approximating non-representable preferences with the
Euclidean model. Our results have implications for the interpretation and use
of vector embeddings, because in some cases close approximation of arbitrary,
true preferences is possible only if the dimensionality of the embeddings is a
substantial fraction of the number of individuals or alternatives.
- Abstract(参考訳): 好みの空間モデルは、ベクトル埋め込みの形で、推薦システムを含む多くのディープラーニングシステムによって学習される。
これらのモデルはしばしばユークリッド構造を近似すると仮定され、ユークリッド計量によって測定されるように、個人は「理想点」に近い位置にある選択肢を好む。
しかし、Bogomolnaia and Laslier (2007) は、ユークリッド空間が個人や代替物よりも2つの少ない次元を持つ場合、この構造で表現できない順序的選好プロファイルが存在することを示した。
この結果を拡張し、ほぼ全ての選好プロファイルがユークリッドモデルで表現できない現実的状況があることを示し、ユークリッドモデルで表現不能な選好を近似するときに失われた情報の理論的下限を導出する。
この結果はベクトル埋め込みの解釈と利用に影響を及ぼす。なぜなら、任意の、真の選好の近似が近い場合、埋め込みの次元が個人や代替の数のかなりの割合である場合に限り可能であるからである。
関連論文リスト
- Classification Using Global and Local Mahalanobis Distances [1.7811840395202345]
競合クラスからの観測のマハラノビス距離に基づく新しい半パラメトリック分類器を提案する。
我々のツールは、これらの距離を異なるクラスの後部確率を推定する特徴として利用するロジスティックリンク関数を持つ一般化加法モデルである。
論文 参考訳(メタデータ) (2024-02-13T08:22:42Z) - Intrinsic Bayesian Cramér-Rao Bound with an Application to Covariance Matrix Estimation [49.67011673289242]
本稿では, 推定パラメータが滑らかな多様体内にある推定問題に対して, 新たな性能境界を提案する。
これはパラメータ多様体の幾何学と推定誤差測度の本質的な概念を誘導する。
論文 参考訳(メタデータ) (2023-11-08T15:17:13Z) - Error Reduction from Stacked Regressions [12.657895453939298]
積み重ね回帰は、予測精度を高めるために異なる回帰推定器の線形結合を形成するアンサンブル手法である。
本稿では,非負性制約を受ける経験的リスクの正規化バージョンを最小化することにより,これらの重みを類似的に学習する。
適応的縮小効果により、結果として生じる累積推定量は、最も優れた単一推定値よりも人口リスクが厳しく小さい。
論文 参考訳(メタデータ) (2023-09-18T15:42:12Z) - Optimal Discriminant Analysis in High-Dimensional Latent Factor Models [1.4213973379473654]
高次元分類問題において、一般的に用いられるアプローチは、まず高次元の特徴を低次元空間に射影することである。
我々は、この2段階の手順を正当化するために、隠れた低次元構造を持つ潜在変数モデルを定式化する。
観測された特徴の特定の主成分(PC)を射影とする計算効率の良い分類器を提案する。
論文 参考訳(メタデータ) (2022-10-23T21:45:53Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Manifold Hypothesis in Data Analysis: Double Geometrically-Probabilistic
Approach to Manifold Dimension Estimation [92.81218653234669]
本稿では, 多様体仮説の検証と基礎となる多様体次元推定に対する新しいアプローチを提案する。
我々の幾何学的手法はミンコフスキー次元計算のためのよく知られたボックスカウントアルゴリズムのスパースデータの修正である。
実データセットの実験では、2つの手法の組み合わせに基づく提案されたアプローチが強力で効果的であることが示されている。
論文 参考訳(メタデータ) (2021-07-08T15:35:54Z) - Group selection and shrinkage: Structured sparsity for semiparametric
additive models [0.0]
群構造を尊重するスパース回帰と分類推定器は、統計学と機械学習の問題に応用できる。
非パラメトリックな面に適合するフレームワークを開発し、有限誤差モデルを示す。
多くの予測器を用いた足および経済予測器のモデル化における有効性を示す。
論文 参考訳(メタデータ) (2021-05-25T17:00:25Z) - On the minmax regret for statistical manifolds: the role of curvature [68.8204255655161]
2つの部分のコードと最小記述長は、最高のモデルを選別するための手順を提供するのに成功している。
我々は、フィッシャー情報計量のスカラー曲率が支配的な役割を果たす複雑さによって与えられる標準表現よりも、よりシャープな表現を導出する。
論文 参考訳(メタデータ) (2020-07-06T17:28:19Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z) - Convex Representation Learning for Generalized Invariance in
Semi-Inner-Product Space [32.442549424823355]
本研究では, 半ノルムにおける多種多様な一般化表現のアルゴリズムを開発し, 先頭の表現子を定式化し, 境界を定式化する。
これにより、正確な予測とともに、我々の実験で確認されているように、表現を効率的かつ効果的に学習することができる。
論文 参考訳(メタデータ) (2020-04-25T18:54:37Z) - Fast and Robust Rank Aggregation against Model Misspecification [105.54181634234266]
ランクアグリゲーション(RA)では、異なるユーザからの好みのコレクションを、ユーザの同質性の仮定の下で総順にまとめる。
RAにおけるモデルの不特定は、複素実世界の状況において同質性の仮定が満たされないために生じる。
本稿では,モデル誤特定に対する堅牢性を有するCoarsenRankを提案する。
論文 参考訳(メタデータ) (2019-05-29T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。