論文の概要: Autoencoder-based General Purpose Representation Learning for Customer Embedding
- arxiv url: http://arxiv.org/abs/2402.18164v2
- Date: Tue, 04 Feb 2025 13:17:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:21:52.672599
- Title: Autoencoder-based General Purpose Representation Learning for Customer Embedding
- Title(参考訳): オートエンコーダに基づくユーザ埋め込みのための汎用表現学習
- Authors: Jan Henrik Bertrand, David B. Hoffmann, Jacopo Pio Gargano, Laurent Mombaerts, Jonathan Taws,
- Abstract要約: 多層契約型オートエンコーダの正規化項を計算する新しい手法であるDEEPCAEを導入する。
DEEPCAEは、復元性能と下流予測性能の両方において、他のテストされたオートエンコーダのバリエーションよりも優れていることを実証的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advances in representation learning have successfully leveraged the underlying domain-specific structure of data across various fields. However, representing diverse and complex entities stored in tabular format within a latent space remains challenging. In this paper, we introduce DEEPCAE, a novel method for calculating the regularization term for multi-layer contractive autoencoders (CAEs). Additionally, we formalize a general-purpose entity embedding framework and use it to empirically show that DEEPCAE outperforms all other tested autoencoder variants in both reconstruction performance and downstream prediction performance. Notably, when compared to a stacked CAE across 13 datasets, DEEPCAE achieves a 34% improvement in reconstruction error.
- Abstract(参考訳): 表現学習の最近の進歩は、様々な分野にわたる基礎となる領域固有のデータ構造を活用することに成功している。
しかし、多様で複雑なエンティティを潜在空間内に表形式で格納することは依然として困難である。
本稿では,多層契約型オートエンコーダ(CAE)の正規化項を計算する新しい手法であるDEEPCAEを紹介する。
さらに、汎用エンティティ埋め込みフレームワークを形式化し、DEEPCAEが再現性能と下流予測性能の両方において、他のテストされたオートエンコーダのバリエーションよりも優れていることを実証的に示す。
特に、13データセットで積み重ねられたCAEと比較して、DEEPCAEは再構築エラーが34%改善されている。
関連論文リスト
- Relation Extraction with Instance-Adapted Predicate Descriptions [9.021267901894912]
関係抽出は、知識発見や質問応答といった下流の応用において重要な役割を果たしている。
本稿では, コントラストとクロスエントロピーの損失を伴う新しいデュアルエンコーダアーキテクチャを用いて, このような小型モデルを微調整する。
提案手法は, 単純だがエレガントな定式化を施した最先端手法に対して, 1%から2%のスコア改善を実現した。
論文 参考訳(メタデータ) (2025-03-22T15:36:41Z) - Adaptable Embeddings Network (AEN) [49.1574468325115]
我々はカーネル密度推定(KDE)を用いた新しいデュアルエンコーダアーキテクチャであるAdaptable Embeddings Networks (AEN)を紹介する。
AENは、再トレーニングせずに分類基準のランタイム適応を可能にし、非自己回帰的である。
アーキテクチャのプリプロセスとキャッシュ条件の埋め込み能力は、エッジコンピューティングアプリケーションやリアルタイム監視システムに最適である。
論文 参考訳(メタデータ) (2024-11-21T02:15:52Z) - Embedding-Free Transformer with Inference Spatial Reduction for Efficient Semantic Segmentation [15.377463849213033]
EFAは、グローバルな非線型性の機能に焦点を当てた、新しいグローバルなコンテキストモデリングメカニズムである。
ISR法では,推論フェーズにおけるキー値の分解能を低減し,計算性能とトレードオフのギャップを軽減できる。
EDAFormerは、既存のトランスフォーマーベースのセマンティックセグメンテーションモデルと比較して、効率的な計算で最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-07-24T13:24:25Z) - Any Image Restoration with Efficient Automatic Degradation Adaptation [132.81912195537433]
本研究は, 各種劣化の相似性を有効かつ包括的修復に活用し, 共同埋設を実現する統一的な方法を提案する。
我々のネットワークは、モデルの複雑さをトレーニング可能なパラメータで約82%、FLOPで約85%削減しつつ、新しいSOTAレコードを設定している。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - Disentanglement via Latent Quantization [60.37109712033694]
本研究では,組織化された潜在空間からの符号化と復号化に向けた帰納的バイアスを構築する。
本稿では,基本データレコーダ (vanilla autoencoder) と潜時再構成 (InfoGAN) 生成モデルの両方に追加することで,このアプローチの広範な適用性を実証する。
論文 参考訳(メタデータ) (2023-05-28T06:30:29Z) - On the Suitability of Representations for Quality Diversity Optimization
of Shapes [77.34726150561087]
進化的アルゴリズムで使用される表現、あるいは符号化は、その性能に大きな影響を及ぼす。
本研究では, 直接符号化, 辞書ベース表現, パラメトリック符号化, 合成パターン生成ネットワーク, セルオートマトンなどの表現が, 酸化メッシュの生成に与える影響について比較した。
論文 参考訳(メタデータ) (2023-04-07T07:34:23Z) - DA-VEGAN: Differentiably Augmenting VAE-GAN for microstructure
reconstruction from extremely small data sets [110.60233593474796]
DA-VEGANは2つの中心的なイノベーションを持つモデルである。
$beta$-variational autoencoderはハイブリッドGANアーキテクチャに組み込まれている。
このアーキテクチャに特化して、独自の差別化可能なデータ拡張スキームが開発されている。
論文 参考訳(メタデータ) (2023-02-17T08:49:09Z) - DAPDAG: Domain Adaptation via Perturbed DAG Reconstruction [78.76115370275733]
本研究では,人口統計量の推定を行う自動エンコーダを学習し,有向非巡回グラフ(DAG)を補助的タスクとして再構築する。
基礎となるDAG構造は、条件分布が潜伏環境変数$E$によって導かれる領域間で変化することが許される観測変数の間で不変であると仮定される。
我々は、エンコーダとデコーダをエンドツーエンドで共同で訓練し、混合変数を用いた合成および実データセットの実験を行う。
論文 参考訳(メタデータ) (2022-08-02T11:43:03Z) - Hierarchical Point Cloud Encoding and Decoding with Lightweight
Self-Attention based Model [22.338247335791095]
SA-CNNは、ポイントクラウドデータの表現学習のための自己アテンションベースのエンコーディングおよびデコードアーキテクチャである。
SA-CNNは, 分類, 部分分割, 再構成, 形状検索, 教師なし分類など, 幅広い応用が可能であることを実証する。
論文 参考訳(メタデータ) (2022-02-13T21:10:06Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - AEFE: Automatic Embedded Feature Engineering for Categorical Features [4.310748698480341]
本稿では,カスタムパラダイム機能構築や複数機能選択など,さまざまなコンポーネントから構成されるカテゴリ機能を表現するための自動機能エンジニアリングフレームワークを提案する。
いくつかの典型的なeコマースデータセットで実施された実験は、我々の手法が古典的な機械学習モデルや最先端のディープラーニングモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-10-19T07:22:59Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Self-Supervised Variational Auto-Encoders [10.482805367361818]
自己教師付き変分自動エンコーダ(self-supervised Variational Auto-Encoder)と呼ばれる新しい生成モデルについて述べる。
このモデルのクラスは、目的関数を単純化しながら、条件付きサンプリングと条件なしサンプリングの両方を実行することができる。
本稿では,3つのベンチマーク画像データ(Cifar10, Imagenette64, CelebA)に対する提案手法の性能について述べる。
論文 参考訳(メタデータ) (2020-10-05T13:42:28Z) - Structure by Architecture: Structured Representations without
Regularization [31.75200752252397]
生成モデルなどの下流タスクにオートエンコーダを用いた自己教師型表現学習の課題について検討する。
我々はアグレッシブな正規化を必要とせずに構造化表現を学習できる新しいオートエンコーダアーキテクチャを設計する。
これらのモデルが、生成、絡み合い、外挿を含む様々な下流タスクの結果を改善する表現をいかに学習するかを実証する。
論文 参考訳(メタデータ) (2020-06-14T04:37:08Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。