論文の概要: Optimizing the Landscape of LLM Embeddings with Dynamic Exploratory Graph Analysis for Generative Psychometrics: A Monte Carlo Study
- arxiv url: http://arxiv.org/abs/2601.17010v1
- Date: Wed, 14 Jan 2026 14:40:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 02:21:38.488946
- Title: Optimizing the Landscape of LLM Embeddings with Dynamic Exploratory Graph Analysis for Generative Psychometrics: A Monte Carlo Study
- Title(参考訳): 動的探索グラフ解析によるLCM埋め込みの景観の最適化 : モンテカルロによる研究
- Authors: Hudson Golino,
- Abstract要約: 本研究では、埋め込みを探索可能なランドスケープとして再編成し、動的探索グラフ解析(DynEGA)を横埋め込み座標に適用する。
大規模モンテカルロシミュレーションでは,OpenAIのテキスト埋め込み3-小モデルを用いて,五次元の壮大なナルシシズムを表す項目を埋め込んだ。
その結果,全エントロピーフィット指数 (TEFI) と正規化相互情報 (NMI) が,埋め込みランドスケープにおける競合する最適化トラジェクトリに繋がることが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language model (LLM) embeddings are increasingly used to estimate dimensional structure in psychological item pools prior to data collection, yet current applications treat embeddings as static, cross-sectional representations. This approach implicitly assumes uniform contribution across all embedding coordinates and overlooks the possibility that optimal structural information may be concentrated in specific regions of the embedding space. This study reframes embeddings as searchable landscapes and adapts Dynamic Exploratory Graph Analysis (DynEGA) to systematically traverse embedding coordinates, treating the dimension index as a pseudo-temporal ordering analogous to intensive longitudinal trajectories. A large-scale Monte Carlo simulation embedded items representing five dimensions of grandiose narcissism using OpenAI's text-embedding-3-small model, generating network estimations across systematically varied item pool sizes (3-40 items per dimension) and embedding depths (3-1,298 dimensions). Results reveal that Total Entropy Fit Index (TEFI) and Normalized Mutual Information (NMI) leads to competing optimization trajectories across the embedding landscape. TEFI achieves minima at deep embedding ranges (900--1,200 dimensions) where entropy-based organization is maximal but structural accuracy degrades, whereas NMI peaks at shallow depths where dimensional recovery is strongest but entropy-based fit remains suboptimal. Single-metric optimization produces structurally incoherent solutions, whereas a weighted composite criterion identifies embedding dimensions depth regions that jointly balance accuracy and organization. Optimal embedding depth scales systematically with item pool size. These findings establish embedding landscapes as non-uniform semantic spaces requiring principled optimization rather than default full-vector usage.
- Abstract(参考訳): 大規模言語モデル(LLM)の埋め込みは、データ収集に先立って心理学的アイテムプールの次元構造を推定するために使われることが多いが、現在のアプリケーションは、埋め込みを静的な断面表現として扱う。
このアプローチは、すべての埋め込み座標の均一な寄与を暗黙的に仮定し、最適な構造情報が埋め込み空間の特定の領域に集中する可能性を見落としている。
本研究では、埋め込みを探索可能なランドスケープとして再編成し、動的探索グラフ解析(DynEGA)をシステム的に横断的な埋め込み座標に適用し、次元指数を集中的な縦トラジェクトリに類似した擬時間順序として扱う。
大規模モンテカルロシミュレーションでは,OpenAIのテキスト埋め込み3-小モデルを用いて五次元の壮大なナルシズムを表す項目を埋め込み,体系的に変化するアイテムプールサイズ(3~40項目)と埋め込み深さ(3~1,298次元)のネットワーク推定を行った。
その結果,全エントロピーフィット指数 (TEFI) と正規化相互情報 (NMI) が,埋め込みランドスケープにおける競合する最適化トラジェクトリに繋がることが明らかとなった。
TEFIはエントロピーに基づく組織が最大であるが構造的精度が低下する深層埋没域(900-1200次元)で最小値を達成する。
シングルメトリック最適化は構造的に不整合な解を生成するが、重み付けされた合成基準は、精度と組織を両立させる埋め込み次元の深さ領域を特定する。
最適埋め込み深度はアイテムプールサイズとともに体系的にスケールする。
これらの知見は、埋め込みランドスケープを、デフォルトのフルベクターの使用ではなく、原則化された最適化を必要とする一様でない意味空間として確立する。
関連論文リスト
- Quasi Monte Carlo methods enable extremely low-dimensional deep generative models [5.092946226487682]
本稿では,準モンテカルロ潜在変数モデル(QLVM)を紹介する。
QLVMは、高次元データセットの極端に低次元で解釈可能な埋め込みを見つけるのに特化している。
論文 参考訳(メタデータ) (2026-01-26T16:51:03Z) - A general framework for adaptive nonparametric dimensionality reduction [1.8424939331296903]
本稿では,最近提案された固有次元推定器を利用して,最適局所適応近傍サイズを推定する。
実世界のデータセットとシミュレーションデータセットの両方の数値実験により,提案手法がよく知られた投影法を大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-11-12T16:59:22Z) - Entropic Optimal Transport Eigenmaps for Nonlinear Alignment and Joint Embedding of High-Dimensional Datasets [11.105392318582677]
本稿では,理論的保証付きデータセットの整列と共同埋め込みの原理的アプローチを提案する。
提案手法は,2つのデータセット間のEOT計画行列の先頭特異ベクトルを利用して,それらの共通基盤構造を抽出する。
EOT計画では,高次元状態において,潜伏変数の位置で評価されたカーネル関数を近似することにより,共有多様体構造を復元する。
論文 参考訳(メタデータ) (2024-07-01T18:48:55Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Flexible Isosurface Extraction for Gradient-Based Mesh Optimization [65.76362454554754]
本研究では、勾配に基づくメッシュ最適化について考察し、スカラー場の等曲面として表現することで、3次元表面メッシュを反復的に最適化する。
我々は、幾何学的、視覚的、あるいは物理的目的に対して未知のメッシュを最適化するために特別に設計された、異面表現であるFlexiCubesを紹介する。
論文 参考訳(メタデータ) (2023-08-10T06:40:19Z) - Laplacian-based Cluster-Contractive t-SNE for High Dimensional Data
Visualization [20.43471678277403]
本稿では t-SNE に基づく新しいグラフベース次元削減手法 LaptSNE を提案する。
具体的には、LaptSNEはグラフラプラシアンの固有値情報を利用して、低次元埋め込みにおけるポテンシャルクラスタを縮小する。
ラプラシアン合成目的による最適化を考える際には、より広い関心を持つであろう勾配を解析的に計算する方法を示す。
論文 参考訳(メタデータ) (2022-07-25T14:10:24Z) - Topology-Preserving Dimensionality Reduction via Interleaving
Optimization [10.097180927318703]
本稿では, インターリーブ距離を最小化する最適化手法を次元還元アルゴリズムに組み込む方法について述べる。
データビジュアライゼーションにおけるこのフレームワークの有用性を実証する。
論文 参考訳(メタデータ) (2022-01-31T06:11:17Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。