論文の概要: Style Feature Extraction Using Contrastive Conditioned Variational
Autoencoders with Mutual Information Constraints
- arxiv url: http://arxiv.org/abs/2303.08068v2
- Date: Thu, 16 Mar 2023 08:59:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 03:35:20.155182
- Title: Style Feature Extraction Using Contrastive Conditioned Variational
Autoencoders with Mutual Information Constraints
- Title(参考訳): 相互情報制約付きコントラスト条件付き変分オートエンコーダを用いたスタイル特徴抽出
- Authors: Suguru Yasutomi, Toshihisa Tanaka
- Abstract要約: 条件付きVAE(CVAE)は、クラスラベルを使ってスタイルを分離することができるが、ラベルのないデータを使ってスタイルだけを抽出する方法は確立されていない。
ラベルなしデータのみを用いてスタイル特徴を抽出するCVAE方式を提案する。
- 参考スコア(独自算出の注目度): 4.670305538969914
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Extracting fine-grained features such as styles from unlabeled data is
crucial for data analysis. Unsupervised methods such as variational
autoencoders (VAEs) can extract styles that are usually mixed with other
features. Conditional VAEs (CVAEs) can isolate styles using class labels;
however, there are no established methods to extract only styles using
unlabeled data. In this paper, we propose a CVAE-based method that extracts
style features using only unlabeled data. The proposed model consists of a
contrastive learning (CL) part that extracts style-independent features and a
CVAE part that extracts style features. The CL model learns representations
independent of data augmentation, which can be viewed as a perturbation in
styles, in a self-supervised manner. Considering the style-independent features
from the pretrained CL model as a condition, the CVAE learns to extract only
styles. Additionally, we introduce a constraint based on mutual information
between the CL and VAE features to prevent the CVAE from ignoring the
condition. Experiments conducted using two simple datasets, MNIST and an
original dataset based on Google Fonts, demonstrate that the proposed method
can efficiently extract style features. Further experiments using real-world
natural image datasets were also conducted to illustrate the method's
extendability.
- Abstract(参考訳): ラベルのないデータからスタイルなどのきめ細かい特徴を抽出することは、データ分析に不可欠である。
変分オートエンコーダ(VAE)のような教師なしの手法は、通常他の特徴と混在するスタイルを抽出することができる。
条件付きVAE(CVAE)は、クラスラベルを用いてスタイルを分離することができるが、ラベルなしデータを用いてスタイルのみを抽出する確立した方法はない。
本稿では,未ラベルデータのみを用いてスタイル特徴を抽出するCVAE方式を提案する。
提案モデルは,スタイル非依存の特徴を抽出したコントラスト学習(cl)部分と,スタイル特徴を抽出するcvae部分からなる。
clモデルは、データ拡張とは独立に表現を学習するが、これはスタイルにおける摂動と見なすことができる。
事前訓練されたCLモデルのスタイルに依存しない特徴を条件として、CVAEはスタイルのみを抽出することを学ぶ。
さらに,CVAEが条件を無視しないように,CL特徴とVAE特徴の相互情報に基づく制約を導入する。
Google Fontsに基づく2つの単純なデータセットMNISTと元のデータセットを用いて実験を行い、提案手法が効率的にスタイル特徴を抽出できることを実証した。
実世界の自然画像データセットを用いたさらなる実験も行われた。
関連論文リスト
- Unified View Imputation and Feature Selection Learning for Incomplete
Multi-view Data [13.079847265195127]
マルチビュー非教師付き特徴選択(MUFS)は、機械学習における次元性の低減に有効な技術である。
既存の方法は、一部のサンプルが欠落している不完全なマルチビューデータを直接処理することはできない。
UNIFIERは、サンプルと特徴空間の両方から類似性誘発グラフを適応的に学習することにより、マルチビューデータの局所構造を探索する。
論文 参考訳(メタデータ) (2024-01-19T08:26:44Z) - Self-Supervised Disentanglement by Leveraging Structure in Data Augmentations [63.73044203154743]
自己教師付き表現学習は、しばしばデータの「スタイル」属性を誘導するためにデータ拡張を使用する。
データの属性が実際に"スタイル"であり、安全に破棄されるような先入観を推論することは困難である。
スタイル機能を捨てるよりも、スタイル機能を切り離そうとする、より原則化されたアプローチを導入します。
論文 参考訳(メタデータ) (2023-11-15T09:34:08Z) - Visual Captioning at Will: Describing Images and Videos Guided by a Few
Stylized Sentences [49.66987347397398]
Few-Shot Stylized Visual Captioningは,任意のスタイルでキャプションを生成することを目的としている。
本稿では,条件付きエンコーダ-デコーダ言語モデルとビジュアルプロジェクションモジュールを用いたFS-StyleCapというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-31T04:26:01Z) - That Label's Got Style: Handling Label Style Bias for Uncertain Image
Segmentation [8.363593384698138]
データセットに最先端セグメンテーションの不確実性モデルを適用することで,ラベルの異なるスタイルによるモデルバイアスが生じる可能性があることを示す。
本稿では,アレータ的不確実性推定のためのラベル付けスタイルに基づくモデリング対象条件の更新と,セグメンテーションの不確実性評価のための2つの最先端アーキテクチャの修正について述べる。
論文 参考訳(メタデータ) (2023-03-28T09:43:16Z) - Exploiting Semantic Attributes for Transductive Zero-Shot Learning [97.61371730534258]
ゼロショット学習は、視覚的特徴と、そのクラスから学んだ意味的属性の関係を一般化することにより、目に見えないクラスを認識することを目的としている。
本稿では,未知データの意味的属性を生成し,生成過程に付加する新しいZSL法を提案する。
5つの標準ベンチマーク実験により,本手法がゼロショット学習の最先端結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-03-17T09:09:48Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Adversarial Disentanglement with Grouped Observations [0.0]
我々は、データ(コンテンツ)の関連属性の表現が、他のすべての要因(スタイル)から切り離されていることを考察する。
この研究はこれらのアルゴリズムを補完し、スタイル表現におけるコンテンツ情報を排除する方法である。
画像データセットにおける実験結果と比較結果から,提案手法は,コンテンツとスタイル関連属性を効率的に分離し,未知のデータに一般化できることが示された。
論文 参考訳(メタデータ) (2020-01-14T13:21:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。