論文の概要: Continuous Multidimensional Scaling
- arxiv url: http://arxiv.org/abs/2402.04436v1
- Date: Tue, 6 Feb 2024 22:13:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 17:46:38.114937
- Title: Continuous Multidimensional Scaling
- Title(参考訳): 連続多次元スケーリング
- Authors: Michael W. Trosset, Carey E. Priebe
- Abstract要約: 多次元スケーリング(MDS)は、$d$次元ユークリッド空間に$n$オブジェクトの集合に関する近接情報を埋め込む行為である。
点対集合写像の理論の標準的な結果は、$n$ が固定された場合、埋め込み構造の極限は制限された近似の埋め込み構造であることを意味する。
すると、MDSを再構成し、埋め込み問題全体の列を固定空間における最適化問題の列と見なせるようにする必要がある。
- 参考スコア(独自算出の注目度): 17.174527164270245
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multidimensional scaling (MDS) is the act of embedding proximity information
about a set of $n$ objects in $d$-dimensional Euclidean space. As originally
conceived by the psychometric community, MDS was concerned with embedding a
fixed set of proximities associated with a fixed set of objects. Modern
concerns, e.g., that arise in developing asymptotic theories for statistical
inference on random graphs, more typically involve studying the limiting
behavior of a sequence of proximities associated with an increasing set of
objects. Standard results from the theory of point-to-set maps imply that, if
$n$ is fixed, then the limit of the embedded structures is the embedded
structure of the limiting proximities. But what if $n$ increases? It then
becomes necessary to reformulate MDS so that the entire sequence of embedding
problems can be viewed as a sequence of optimization problems in a fixed space.
We present such a reformulation and derive some consequences.
- Abstract(参考訳): 多次元スケーリング (multidimensional scaling, mds) は、n$ のオブジェクトの集合の近接情報を $d$ 次元ユークリッド空間に埋め込む行為である。
もともと心理測定のコミュニティが考え出したように、MDSは固定されたオブジェクトの集合に関連する固定された確率のセットを埋めることに関心を持っていた。
現代の関心事、例えば、ランダムグラフの統計的推論のための漸近理論の開発において生じる、より一般的には、増大する対象の集合に関連する一連の公理の列の制限挙動を研究することである。
点対集合写像の理論の標準的な結果は、$n$ が固定された場合、埋め込み構造の極限は制限された近似の埋め込み構造であることを意味する。
でも、$n$が上がったら?
したがって、MDSを再構成し、埋め込み問題全体の列を固定空間における最適化問題の列と見なせるようにする必要がある。
このような改革を提示し、いくつかの結果をもたらす。
関連論文リスト
- Joint Learning of Linear Dynamical Systems under Smoothness Constraints [5.2395896768723045]
複数の線形力学系の連立学習の問題点を考察する。
特に,平均二乗誤差が平均二乗誤差(MSE)に収束する条件を示す。
論文 参考訳(メタデータ) (2024-06-03T08:29:42Z) - Improved Algorithm for Adversarial Linear Mixture MDPs with Bandit
Feedback and Unknown Transition [71.33787410075577]
線形関数近似,未知遷移,および逆損失を用いた強化学習について検討した。
我々は高い確率で$widetildeO(dsqrtHS3K + sqrtHSAK)$ regretを実現する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T15:03:50Z) - Pseudonorm Approachability and Applications to Regret Minimization [73.54127663296906]
我々は、高次元 $ell_infty$-approachability 問題を、低次元の擬ノルムアプローチ可能性問題に変換する。
我々は、$ell$や他のノルムに対するアプローチ可能性に関する以前の研究に類似した疑似ノルムアプローチ可能性のアルゴリズム理論を開発する。
論文 参考訳(メタデータ) (2023-02-03T03:19:14Z) - Rank-1 Matrix Completion with Gradient Descent and Small Random
Initialization [15.127728811011245]
我々は,GDの暗黙的正規化が分析において重要な役割を担っていることを示す。
我々は、手頃な分析において暗黙の正規化GDが重要な役割を担っていることを観察する。
論文 参考訳(メタデータ) (2022-12-19T12:05:37Z) - Discrete Bulk Reconstruction [4.467248776406005]
ブラックホールの内部などの領域を再構築したい場合,AdS/CFTは指数関数的に複雑であることを示す。
また,複数の1次元境界がワームホールを介して接続される場合にも,初期進行が見られた。
論文 参考訳(メタデータ) (2022-10-27T16:39:29Z) - Minimax Optimization: The Case of Convex-Submodular [50.03984152441271]
ミニマックス問題は連続領域を超えて連続離散領域や完全離散領域にまで拡張される。
連続変数に関して目的が凸であり、離散変数に関して部分モジュラーであるような凸-部分モジュラーミニマックス問題のクラスを導入する。
提案アルゴリズムは反復的であり、離散最適化と連続最適化の両方のツールを組み合わせる。
論文 参考訳(メタデータ) (2021-11-01T21:06:35Z) - Recurrently Predicting Hypergraphs [30.092688729343678]
問題は、$n$要素の集合に対して$mathcalO(2n)$でスケーリング可能なマルチウェイ関係(ハイパーエッジ)の数から生じる。
そこで本研究では,提案手法の初期推定を反復的に精算することにより,入射行列を予測する再帰型ハイパーグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-26T01:12:41Z) - Problem Dependent View on Structured Thresholding Bandit Problems [73.70176003598449]
我々は、Thresholding Bandit problem (TBP)における問題依存体制について検討する。
学習者の目的は、シーケンシャルゲームの終わりに、所定のしきい値を超える手段を持つアームセットを出力することである。
コンケーブ設定と単調設定の両方で誤差の確率を上下に設定する。
論文 参考訳(メタデータ) (2021-06-18T15:01:01Z) - Tight High Probability Bounds for Linear Stochastic Approximation with
Fixed Stepsize [41.38162218102825]
本稿では,線形近似 (LSA) アルゴリズムの漸近的解析を行う。
我々は、より弱い条件下での LSA の性能に高い確率境界を導出する:$(bf A_n, bf b_n): n in mathbbN*$。
bf A_n: n in mathbbN*$ {\displaystyle \mathbbN*=} の列について追加の仮定なしでは、我々の結論は改善できないことを示す。
論文 参考訳(メタデータ) (2021-06-02T16:10:37Z) - Proximal Gradient Descent-Ascent: Variable Convergence under K{\L}
Geometry [49.65455534654459]
有限降下指数パラメータ (GDA) はミニマックス最適化問題の解法として広く応用されている。
本稿では、KL-L型幾何学の収束を研究することにより、そのようなギャップを埋める。
論文 参考訳(メタデータ) (2021-02-09T05:35:53Z) - A Simple Convergence Proof of Adam and Adagrad [74.24716715922759]
我々はAdam Adagradと$O(d(N)/st)$アルゴリズムの収束の証明を示す。
Adamはデフォルトパラメータで使用する場合と同じ収束$O(d(N)/st)$で収束する。
論文 参考訳(メタデータ) (2020-03-05T01:56:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。