論文の概要: Autoencoder-based General Purpose Representation Learning for Customer
Embedding
- arxiv url: http://arxiv.org/abs/2402.18164v1
- Date: Wed, 28 Feb 2024 08:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 15:46:50.560696
- Title: Autoencoder-based General Purpose Representation Learning for Customer
Embedding
- Title(参考訳): 顧客埋め込みのためのオートエンコーダに基づく汎用表現学習
- Authors: Jan Henrik Bertrand, Jacopo Pio Gargano, Laurent Mombaerts, Jonathan
Taws
- Abstract要約: 我々は、汎用的な埋め込みを構築するためのオートエンコーダベースのフレームワークを設計し、異なるオートエンコーダアーキテクチャの性能を評価し、高度に複雑なデータの埋め込みにおいて、より単純なモデルよりも優れていることを示す。
当社のフレームワークを適用して、任意のモデルで使用するためにAWSユーザを表すプラグイン、リッチ、匿名の埋め込みを生成し、開発時間の最大45%を節約し、ダウンストリームモデルの大幅な改善を観察します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, exploiting the domain-specific underlying structure of data
and its generative factors for representation learning has shown success in
various use-case agnostic applications. However, the diversity and complexity
of tabular data have made it challenging to represent these structures in a
latent space through multi-dimensional vectors. We design an autoencoder-based
framework for building general purpose embeddings, we assess the performance of
different autoencoder architectures, and show simpler models outperform complex
ones in embedding highly complex tabular data. We apply our framework to
produce plug-and-play, rich, and anonymized embeddings representing AWS
customers for usage in any model, saving up to 45% of development time, and
observe significant improvements in downstream models. Moreover, we propose a
significant improvement to the calculation of reconstruction loss for
multi-layer contractive autoencoders (CAE) by calculating the Jacobian of the
entire encoder leading to a 15% improvement in reconstruction quality when
compared to a stacked CAE.
- Abstract(参考訳): 近年,ドメイン固有のデータ構造と表現学習のための生成要因を活用することで,様々なユースケースに依存しない応用が成功している。
しかしながら、表データの多様性と複雑さにより、これらの構造を多次元ベクトルを通して潜在空間で表現することが困難になっている。
汎用組込みを構築するためのオートエンコーダベースのフレームワークを設計し,異なるオートエンコーダアーキテクチャの性能を評価し,複雑な表データ組込みにおいて複雑なモデルよりも単純なモデルの方が優れていることを示す。
当社のフレームワークを適用して、任意のモデルで使用するためにAWSユーザを表すプラグイン、リッチ、匿名の埋め込みを生成し、開発時間の最大45%を節約し、ダウンストリームモデルの大幅な改善を観察します。
さらに,多層契約型オートエンコーダ(CAE)の再構成損失の計算において,全エンコーダのジャコビアンを計算し,重畳されたCAEと比較して再現品質が15%向上することを示す。
関連論文リスト
- Embedding-Free Transformer with Inference Spatial Reduction for Efficient Semantic Segmentation [15.377463849213033]
EFAは、グローバルな非線型性の機能に焦点を当てた、新しいグローバルなコンテキストモデリングメカニズムである。
ISR法では,推論フェーズにおけるキー値の分解能を低減し,計算性能とトレードオフのギャップを軽減できる。
EDAFormerは、既存のトランスフォーマーベースのセマンティックセグメンテーションモデルと比較して、効率的な計算で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-07-24T13:24:25Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - Interpretable Spectral Variational AutoEncoder (ISVAE) for time series
clustering [48.0650332513417]
可変オートエンコーダ(VAE)の出力にフィルタバンク(FB)の解釈可能なボトルネックを組み込んだ新しいモデルを導入する。
このアレンジメントは、入力信号の最も情報性の高いセグメントに参加するためにVAEを補完する。
VAEをこのFBに故意に拘束することにより、識別可能で分離可能で次元が縮小した符号化の開発を促進する。
論文 参考訳(メタデータ) (2023-10-18T13:06:05Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - On the Suitability of Representations for Quality Diversity Optimization
of Shapes [77.34726150561087]
進化的アルゴリズムで使用される表現、あるいは符号化は、その性能に大きな影響を及ぼす。
本研究では, 直接符号化, 辞書ベース表現, パラメトリック符号化, 合成パターン生成ネットワーク, セルオートマトンなどの表現が, 酸化メッシュの生成に与える影響について比較した。
論文 参考訳(メタデータ) (2023-04-07T07:34:23Z) - DAPDAG: Domain Adaptation via Perturbed DAG Reconstruction [78.76115370275733]
本研究では,人口統計量の推定を行う自動エンコーダを学習し,有向非巡回グラフ(DAG)を補助的タスクとして再構築する。
基礎となるDAG構造は、条件分布が潜伏環境変数$E$によって導かれる領域間で変化することが許される観測変数の間で不変であると仮定される。
我々は、エンコーダとデコーダをエンドツーエンドで共同で訓練し、混合変数を用いた合成および実データセットの実験を行う。
論文 参考訳(メタデータ) (2022-08-02T11:43:03Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。