論文の概要: Autoencoder-based General Purpose Representation Learning for Customer Embedding
- arxiv url: http://arxiv.org/abs/2402.18164v2
- Date: Tue, 04 Feb 2025 13:17:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:55:33.456968
- Title: Autoencoder-based General Purpose Representation Learning for Customer Embedding
- Title(参考訳): オートエンコーダに基づくユーザ埋め込みのための汎用表現学習
- Authors: Jan Henrik Bertrand, David B. Hoffmann, Jacopo Pio Gargano, Laurent Mombaerts, Jonathan Taws,
- Abstract要約: 多層契約型オートエンコーダの正規化項を計算する新しい手法であるDEEPCAEを導入する。
DEEPCAEは、復元性能と下流予測性能の両方において、他のテストされたオートエンコーダのバリエーションよりも優れていることを実証的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recent advances in representation learning have successfully leveraged the underlying domain-specific structure of data across various fields. However, representing diverse and complex entities stored in tabular format within a latent space remains challenging. In this paper, we introduce DEEPCAE, a novel method for calculating the regularization term for multi-layer contractive autoencoders (CAEs). Additionally, we formalize a general-purpose entity embedding framework and use it to empirically show that DEEPCAE outperforms all other tested autoencoder variants in both reconstruction performance and downstream prediction performance. Notably, when compared to a stacked CAE across 13 datasets, DEEPCAE achieves a 34% improvement in reconstruction error.
- Abstract(参考訳): 表現学習の最近の進歩は、様々な分野にわたる基礎となる領域固有のデータ構造を活用することに成功している。
しかし、多様で複雑なエンティティを潜在空間内に表形式で格納することは依然として困難である。
本稿では,多層契約型オートエンコーダ(CAE)の正規化項を計算する新しい手法であるDEEPCAEを紹介する。
さらに、汎用エンティティ埋め込みフレームワークを形式化し、DEEPCAEが再現性能と下流予測性能の両方において、他のテストされたオートエンコーダのバリエーションよりも優れていることを実証的に示す。
特に、13データセットで積み重ねられたCAEと比較して、DEEPCAEは再構築エラーが34%改善されている。
関連論文リスト
- Embedding-Free Transformer with Inference Spatial Reduction for Efficient Semantic Segmentation [15.377463849213033]
EFAは、グローバルな非線型性の機能に焦点を当てた、新しいグローバルなコンテキストモデリングメカニズムである。
ISR法では,推論フェーズにおけるキー値の分解能を低減し,計算性能とトレードオフのギャップを軽減できる。
EDAFormerは、既存のトランスフォーマーベースのセマンティックセグメンテーションモデルと比較して、効率的な計算で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-07-24T13:24:25Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - Interpretable Spectral Variational AutoEncoder (ISVAE) for time series
clustering [48.0650332513417]
可変オートエンコーダ(VAE)の出力にフィルタバンク(FB)の解釈可能なボトルネックを組み込んだ新しいモデルを導入する。
このアレンジメントは、入力信号の最も情報性の高いセグメントに参加するためにVAEを補完する。
VAEをこのFBに故意に拘束することにより、識別可能で分離可能で次元が縮小した符号化の開発を促進する。
論文 参考訳(メタデータ) (2023-10-18T13:06:05Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - On the Suitability of Representations for Quality Diversity Optimization
of Shapes [77.34726150561087]
進化的アルゴリズムで使用される表現、あるいは符号化は、その性能に大きな影響を及ぼす。
本研究では, 直接符号化, 辞書ベース表現, パラメトリック符号化, 合成パターン生成ネットワーク, セルオートマトンなどの表現が, 酸化メッシュの生成に与える影響について比較した。
論文 参考訳(メタデータ) (2023-04-07T07:34:23Z) - DAPDAG: Domain Adaptation via Perturbed DAG Reconstruction [78.76115370275733]
本研究では,人口統計量の推定を行う自動エンコーダを学習し,有向非巡回グラフ(DAG)を補助的タスクとして再構築する。
基礎となるDAG構造は、条件分布が潜伏環境変数$E$によって導かれる領域間で変化することが許される観測変数の間で不変であると仮定される。
我々は、エンコーダとデコーダをエンドツーエンドで共同で訓練し、混合変数を用いた合成および実データセットの実験を行う。
論文 参考訳(メタデータ) (2022-08-02T11:43:03Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。