論文の概要: Autoencoder-based General Purpose Representation Learning for Customer
Embedding
- arxiv url: http://arxiv.org/abs/2402.18164v1
- Date: Wed, 28 Feb 2024 08:53:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-29 15:46:50.560696
- Title: Autoencoder-based General Purpose Representation Learning for Customer
Embedding
- Title(参考訳): 顧客埋め込みのためのオートエンコーダに基づく汎用表現学習
- Authors: Jan Henrik Bertrand, Jacopo Pio Gargano, Laurent Mombaerts, Jonathan
Taws
- Abstract要約: 我々は、汎用的な埋め込みを構築するためのオートエンコーダベースのフレームワークを設計し、異なるオートエンコーダアーキテクチャの性能を評価し、高度に複雑なデータの埋め込みにおいて、より単純なモデルよりも優れていることを示す。
当社のフレームワークを適用して、任意のモデルで使用するためにAWSユーザを表すプラグイン、リッチ、匿名の埋め込みを生成し、開発時間の最大45%を節約し、ダウンストリームモデルの大幅な改善を観察します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, exploiting the domain-specific underlying structure of data
and its generative factors for representation learning has shown success in
various use-case agnostic applications. However, the diversity and complexity
of tabular data have made it challenging to represent these structures in a
latent space through multi-dimensional vectors. We design an autoencoder-based
framework for building general purpose embeddings, we assess the performance of
different autoencoder architectures, and show simpler models outperform complex
ones in embedding highly complex tabular data. We apply our framework to
produce plug-and-play, rich, and anonymized embeddings representing AWS
customers for usage in any model, saving up to 45% of development time, and
observe significant improvements in downstream models. Moreover, we propose a
significant improvement to the calculation of reconstruction loss for
multi-layer contractive autoencoders (CAE) by calculating the Jacobian of the
entire encoder leading to a 15% improvement in reconstruction quality when
compared to a stacked CAE.
- Abstract(参考訳): 近年,ドメイン固有のデータ構造と表現学習のための生成要因を活用することで,様々なユースケースに依存しない応用が成功している。
しかしながら、表データの多様性と複雑さにより、これらの構造を多次元ベクトルを通して潜在空間で表現することが困難になっている。
汎用組込みを構築するためのオートエンコーダベースのフレームワークを設計し,異なるオートエンコーダアーキテクチャの性能を評価し,複雑な表データ組込みにおいて複雑なモデルよりも単純なモデルの方が優れていることを示す。
当社のフレームワークを適用して、任意のモデルで使用するためにAWSユーザを表すプラグイン、リッチ、匿名の埋め込みを生成し、開発時間の最大45%を節約し、ダウンストリームモデルの大幅な改善を観察します。
さらに,多層契約型オートエンコーダ(CAE)の再構成損失の計算において,全エンコーダのジャコビアンを計算し,重畳されたCAEと比較して再現品質が15%向上することを示す。
関連論文リスト
- Relation Extraction with Instance-Adapted Predicate Descriptions [9.021267901894912]
関係抽出は、知識発見や質問応答といった下流の応用において重要な役割を果たしている。
本稿では, コントラストとクロスエントロピーの損失を伴う新しいデュアルエンコーダアーキテクチャを用いて, このような小型モデルを微調整する。
提案手法は, 単純だがエレガントな定式化を施した最先端手法に対して, 1%から2%のスコア改善を実現した。
論文 参考訳(メタデータ) (2025-03-22T15:36:41Z) - Adaptable Embeddings Network (AEN) [49.1574468325115]
我々はカーネル密度推定(KDE)を用いた新しいデュアルエンコーダアーキテクチャであるAdaptable Embeddings Networks (AEN)を紹介する。
AENは、再トレーニングせずに分類基準のランタイム適応を可能にし、非自己回帰的である。
アーキテクチャのプリプロセスとキャッシュ条件の埋め込み能力は、エッジコンピューティングアプリケーションやリアルタイム監視システムに最適である。
論文 参考訳(メタデータ) (2024-11-21T02:15:52Z) - Embedding-Free Transformer with Inference Spatial Reduction for Efficient Semantic Segmentation [15.377463849213033]
EFAは、グローバルな非線型性の機能に焦点を当てた、新しいグローバルなコンテキストモデリングメカニズムである。
ISR法では,推論フェーズにおけるキー値の分解能を低減し,計算性能とトレードオフのギャップを軽減できる。
EDAFormerは、既存のトランスフォーマーベースのセマンティックセグメンテーションモデルと比較して、効率的な計算で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-07-24T13:24:25Z) - Any Image Restoration with Efficient Automatic Degradation Adaptation [132.81912195537433]
本研究は, 各種劣化の相似性を有効かつ包括的修復に活用し, 共同埋設を実現する統一的な方法を提案する。
我々のネットワークは、モデルの複雑さをトレーニング可能なパラメータで約82%、FLOPで約85%削減しつつ、新しいSOTAレコードを設定している。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - On the Suitability of Representations for Quality Diversity Optimization
of Shapes [77.34726150561087]
進化的アルゴリズムで使用される表現、あるいは符号化は、その性能に大きな影響を及ぼす。
本研究では, 直接符号化, 辞書ベース表現, パラメトリック符号化, 合成パターン生成ネットワーク, セルオートマトンなどの表現が, 酸化メッシュの生成に与える影響について比較した。
論文 参考訳(メタデータ) (2023-04-07T07:34:23Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - DAPDAG: Domain Adaptation via Perturbed DAG Reconstruction [78.76115370275733]
本研究では,人口統計量の推定を行う自動エンコーダを学習し,有向非巡回グラフ(DAG)を補助的タスクとして再構築する。
基礎となるDAG構造は、条件分布が潜伏環境変数$E$によって導かれる領域間で変化することが許される観測変数の間で不変であると仮定される。
我々は、エンコーダとデコーダをエンドツーエンドで共同で訓練し、混合変数を用いた合成および実データセットの実験を行う。
論文 参考訳(メタデータ) (2022-08-02T11:43:03Z) - Hierarchical Point Cloud Encoding and Decoding with Lightweight
Self-Attention based Model [22.338247335791095]
SA-CNNは、ポイントクラウドデータの表現学習のための自己アテンションベースのエンコーディングおよびデコードアーキテクチャである。
SA-CNNは, 分類, 部分分割, 再構成, 形状検索, 教師なし分類など, 幅広い応用が可能であることを実証する。
論文 参考訳(メタデータ) (2022-02-13T21:10:06Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - AEFE: Automatic Embedded Feature Engineering for Categorical Features [4.310748698480341]
本稿では,カスタムパラダイム機能構築や複数機能選択など,さまざまなコンポーネントから構成されるカテゴリ機能を表現するための自動機能エンジニアリングフレームワークを提案する。
いくつかの典型的なeコマースデータセットで実施された実験は、我々の手法が古典的な機械学習モデルや最先端のディープラーニングモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-10-19T07:22:59Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Self-Supervised Variational Auto-Encoders [10.482805367361818]
自己教師付き変分自動エンコーダ(self-supervised Variational Auto-Encoder)と呼ばれる新しい生成モデルについて述べる。
このモデルのクラスは、目的関数を単純化しながら、条件付きサンプリングと条件なしサンプリングの両方を実行することができる。
本稿では,3つのベンチマーク画像データ(Cifar10, Imagenette64, CelebA)に対する提案手法の性能について述べる。
論文 参考訳(メタデータ) (2020-10-05T13:42:28Z) - Structure by Architecture: Structured Representations without
Regularization [31.75200752252397]
生成モデルなどの下流タスクにオートエンコーダを用いた自己教師型表現学習の課題について検討する。
我々はアグレッシブな正規化を必要とせずに構造化表現を学習できる新しいオートエンコーダアーキテクチャを設計する。
これらのモデルが、生成、絡み合い、外挿を含む様々な下流タスクの結果を改善する表現をいかに学習するかを実証する。
論文 参考訳(メタデータ) (2020-06-14T04:37:08Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。