論文の概要: Variational Autoencoder with Embedded Student-$t$ Mixture Model for
Authorship Attribution
- arxiv url: http://arxiv.org/abs/2005.13930v1
- Date: Thu, 28 May 2020 11:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:26:25.026363
- Title: Variational Autoencoder with Embedded Student-$t$ Mixture Model for
Authorship Attribution
- Title(参考訳): 組込み学生用変分オートエンコーダ-著者属性のための$t$混合モデル
- Authors: Benedikt Boenninghoff, Steffen Zeiler, Robert M. Nickel, Dorothea
Kolossa
- Abstract要約: 候補作家の有限セットと対応するラベル付きテキストが与えられた場合、著者のどちらが匿名または論争されたテキストの別のセットを書いたかを決定することが目的である。
本稿では,この教師付き分類タスクを扱う確率論的自動符号化フレームワークを提案する。
Amazonのレビューデータセットに対する実験は、提案手法の優れた性能を示している。
- 参考スコア(独自算出の注目度): 13.196225569878761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional computational authorship attribution describes a classification
task in a closed-set scenario. Given a finite set of candidate authors and
corresponding labeled texts, the objective is to determine which of the authors
has written another set of anonymous or disputed texts. In this work, we
propose a probabilistic autoencoding framework to deal with this supervised
classification task. More precisely, we are extending a variational autoencoder
(VAE) with embedded Gaussian mixture model to a Student-$t$ mixture model.
Autoencoders have had tremendous success in learning latent representations.
However, existing VAEs are currently still bound by limitations imposed by the
assumed Gaussianity of the underlying probability distributions in the latent
space. In this work, we are extending the Gaussian model for the VAE to a
Student-$t$ model, which allows for an independent control of the "heaviness"
of the respective tails of the implied probability densities. Experiments over
an Amazon review dataset indicate superior performance of the proposed method.
- Abstract(参考訳): 従来の計算オーサシップ属性は、クローズドセットシナリオにおける分類タスクを記述する。
候補作家の有限集合と対応するラベル付きテキストが与えられると、どちらの著者が別の匿名または論争のあるテキストを書いたかを決定するのが目的である。
本稿では,この教師付き分類タスクに対応する確率的自動エンコーディングフレームワークを提案する。
より正確には、組込みガウス混合モデルによる変分オートエンコーダ(VAE)を、学生=$t$混合モデルに拡張している。
オートエンコーダは潜在表現の学習に多大な成功を収めた。
しかしながら、既存のVAEは、現在なお、潜在空間の基底確率分布のガウス性によって課せられる制限によって拘束されている。
本研究では,vaeのガウスモデルを拡張して,暗黙の確率密度の各テールの「重み」を独立に制御できる学生$t$モデルに拡張する。
amazon reviewデータセット上での実験は、提案手法の優れた性能を示している。
関連論文リスト
- SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Delta-AI: Local objectives for amortized inference in sparse graphical models [64.5938437823851]
スパース確率的グラフィカルモデル(PGM)における補正推論のための新しいアルゴリズムを提案する。
提案手法は, PGMにおける変数のサンプリングをエージェントが行う一連の行動とみなす場合, エージェントのポリシー学習目的において, PGMの疎結合が局所的な信用割当を可能にするという観察に基づいている。
合成PGMからサンプリングし、スパース因子構造を持つ潜在変数モデルを訓練するための$Delta$-AIの有効性について説明する。
論文 参考訳(メタデータ) (2023-10-03T20:37:03Z) - Variational Diffusion Auto-encoder: Latent Space Extraction from
Pre-trained Diffusion Models [0.0]
可変オートエンコーダ(VAE)は、生成された画像の品質の問題に直面し、しばしば目立った曖昧さを示す。
この問題は、条件付きデータ分布を近似する非現実的な仮定である $p(textbfx | textbfz)$ が等方ガウス的であることに由来する。
本稿では,エンコーダを最適化することにより,既存の拡散モデルから潜在空間を抽出し,限界データのログ化を最大化する方法について述べる。
論文 参考訳(メタデータ) (2023-04-24T14:44:47Z) - BRIO: Bringing Order to Abstractive Summarization [107.97378285293507]
非決定論的分布を前提とした新しい学習パラダイムを提案する。
提案手法は, CNN/DailyMail (47.78 ROUGE-1) と XSum (49.07 ROUGE-1) のデータセット上で, 最新の結果が得られる。
論文 参考訳(メタデータ) (2022-03-31T05:19:38Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Unbiased Gradient Estimation for Variational Auto-Encoders using Coupled
Markov Chains [34.77971292478243]
変分オートエンコーダ(VAE)は、オートエンコーダのようなアーキテクチャで2つのニューラルネットワークを持つ、潜伏変数モデルである。
ログ型勾配の偏りのない推定器を導入することにより,VAEのトレーニング手法を開発する。
偏りのない推定器を装着したVAEは予測性能が向上することを示した。
論文 参考訳(メタデータ) (2020-10-05T08:11:55Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Variational Mixture of Normalizing Flows [0.0]
生成逆数ネットワークオートサイトGAN、変分オートエンコーダオートサイトベイペーパー、およびそれらの変種などの深い生成モデルは、複雑なデータ分布をモデル化するタスクに広く採用されている。
正規化フローはこの制限を克服し、確率密度関数にそのような公式の変更を利用する。
本研究は,混合モデルのコンポーネントとして正規化フローを用い,そのようなモデルのエンドツーエンドトレーニング手順を考案することによって,この問題を克服する。
論文 参考訳(メタデータ) (2020-09-01T17:20:08Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - Regularized Autoencoders via Relaxed Injective Probability Flow [35.39933775720789]
非可逆フローベース生成モデルは、抽出可能な確率計算と推論を可能にしながら、サンプルを生成するための効果的な方法である。
本稿では, モデル上の単射性要件を回避し, 単射性のみを仮定する確率フローに基づく生成モデルを提案する。
論文 参考訳(メタデータ) (2020-02-20T18:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。