論文の概要: Length-Aware Adversarial Training for Variable-Length Trajectories: Digital Twins for Mall Shopper Paths
- arxiv url: http://arxiv.org/abs/2601.01663v1
- Date: Sun, 04 Jan 2026 20:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.62795
- Title: Length-Aware Adversarial Training for Variable-Length Trajectories: Digital Twins for Mall Shopper Paths
- Title(参考訳): 可変長軌跡に対する長尺対応訓練:モールショッパーパスのためのデジタル双眼鏡
- Authors: He Sun, Jiwoong Shin, Ravi Dhar,
- Abstract要約: 本研究では, 時間スタンプを伴って, 訪れた場所・項目の列を列挙した, エンフェバリアブルな長さ軌跡の生成モデルについて検討する。
軌道長が非常に均一な場合、標準のミニバッチトレーニングは不安定である。
本稿では,bf length-aware sample (LAS) を提案する。
- 参考スコア(独自算出の注目度): 4.841565047500658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study generative modeling of \emph{variable-length trajectories} -- sequences of visited locations/items with associated timestamps -- for downstream simulation and counterfactual analysis. A recurring practical issue is that standard mini-batch training can be unstable when trajectory lengths are highly heterogeneous, which in turn degrades \emph{distribution matching} for trajectory-derived statistics. We propose \textbf{length-aware sampling (LAS)}, a simple batching strategy that groups trajectories by length and samples batches from a single length bucket, reducing within-batch length heterogeneity (and making updates more consistent) without changing the model class. We integrate LAS into a conditional trajectory GAN with auxiliary time-alignment losses and provide (i) a distribution-level guarantee for derived variables under mild boundedness assumptions, and (ii) an IPM/Wasserstein mechanism explaining why LAS improves distribution matching by removing length-only shortcut critics and targeting within-bucket discrepancies. Empirically, LAS consistently improves matching of derived-variable distributions on a multi-mall dataset of shopper trajectories and on diverse public sequence datasets (GPS, education, e-commerce, and movies), outperforming random sampling across dataset-specific metrics.
- Abstract(参考訳): 本研究では,下流シミュレーションと反実解析のための<emph{variable-length trajectories</e>の生成モデルについて検討した。
通常のミニバッチトレーニングは、トラジェクトリの長さが非常に不均一であるときに不安定になり、それによってトラジェクトリ由来の統計量に対して \emph{distribution matching} が低下する。
本稿では,単一長さバケットからトラジェクトリをグループ化し,単一長さバケットからバッチをサンプリングし,モデルクラスを変更することなくバッチ内長の不均一性を低減し(更新をより一貫性のあるものにする),単純なバッチ処理手法である‘textbf{length-aware sample(LAS)}を提案する。
我々は LAS を補助的な時間アライメント損失を伴う条件付き軌道 GAN に統合し, 提供する。
(i)軽度有界性仮定に基づく導出変数の分布レベル保証及び
(II) IPM/Wasserstein機構は,長さ限定のショートカット評論家を排除し,バケット内不一致を狙うことにより,なぜLASが分布マッチングを改善するのかを説明する。
経験的に、LASは、買い物客軌跡のマルチモールデータセットと様々な公共シーケンスデータセット(GPS、教育、eコマース、映画)上の派生変数分布のマッチングを一貫して改善し、データセット固有のメトリクスでランダムサンプリングを上回ります。
関連論文リスト
- Phase-space entropy at acquisition reflects downstream learnability [54.4100065023873]
楽器分解位相空間に基づく取得レベルスカラー$S_mathcal B$を提案する。
本稿では, (S_mathcal B) が周期サンプリングの位相空間コヒーレンスを正確に同定できることを理論的に示す。
$|S_mathcal B|$は一貫してサンプリングジオメトリをランク付けし、トレーニングなしで下流での再構築/認識の困難を予測します。
論文 参考訳(メタデータ) (2025-12-22T10:03:51Z) - Nearly Instance-Optimal Parameter Recovery from Many Trajectories via Hellinger Localization [19.74516565968901]
我々は,Hellingerのローカライゼーションフレームワークを通じて,多軌道設定におけるインスタンス最適率の範囲を拡張した。
4つのケーススタディでフレームワークをインスタンス化します。
我々の限界は、標準値よりも大幅に改善され、通常値からインスタンス最適値にほぼ一致する。
論文 参考訳(メタデータ) (2025-10-07T20:12:04Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Explaining Time Series via Contrastive and Locally Sparse Perturbations [45.055327583283315]
ContraLSPは、非形式的摂動を構築するために反事実サンプルを導入するスパースモデルである。
合成と実世界の両方のデータセットに関する実証研究は、ContraLSPが最先端のモデルより優れていることを示している。
論文 参考訳(メタデータ) (2024-01-16T18:27:37Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Imputing Missing Observations with Time Sliced Synthetic Minority
Oversampling Technique [0.3973560285628012]
本稿では,データセット内の各サンプルに対して均一な不規則な時系列を構成することを目的とした,単純かつ斬新な時系列計算手法を提案する。
我々は、観測時間の重複しないビン(「スライス」と呼ばれる)の中間点で定義される格子を固定し、各サンプルが所定の時間にすべての特徴に対して値を持つことを保証する。
これにより、完全に欠落した観察をインプットし、データ全体の時系列の均一な分類を可能にし、特別な場合には個々の欠落した特徴をインプットすることができる。
論文 参考訳(メタデータ) (2022-01-14T19:23:24Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Learning to Match Distributions for Domain Adaptation [116.14838935146004]
本稿では,ドメイン間分布マッチングを自動的に学習する学習 to Match (L2M)を提案する。
L2Mは、メタネットワークを用いてデータ駆動方式で分布整合損失を学習することにより、誘導バイアスを低減する。
公開データセットの実験は、SOTA法よりもL2Mの方が優れていることを裏付けている。
論文 参考訳(メタデータ) (2020-07-17T03:26:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。