論文の概要: Tackling Data Bias in Painting Classification with Style Transfer
- arxiv url: http://arxiv.org/abs/2301.02524v1
- Date: Fri, 6 Jan 2023 14:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:51:26.075499
- Title: Tackling Data Bias in Painting Classification with Style Transfer
- Title(参考訳): スタイル転送を用いた絵画分類におけるデータバイアス対策
- Authors: Mridula Vijendran, Frederick W. B. Li, Hubert P. H. Shum
- Abstract要約: そこで我々は,Kaokoreデータセットのような小さな絵画データセットにおいて,データのバイアスを処理するシステムを提案する。
本システムは,スタイル伝達と分類の2段階からなる。
- 参考スコア(独自算出の注目度): 12.88476464580968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is difficult to train classifiers on paintings collections due to model
bias from domain gaps and data bias from the uneven distribution of artistic
styles. Previous techniques like data distillation, traditional data
augmentation and style transfer improve classifier training using task specific
training datasets or domain adaptation. We propose a system to handle data bias
in small paintings datasets like the Kaokore dataset while simultaneously
accounting for domain adaptation in fine-tuning a model trained on real world
images. Our system consists of two stages which are style transfer and
classification. In the style transfer stage, we generate the stylized training
samples per class with uniformly sampled content and style images and train the
style transformation network per domain. In the classification stage, we can
interpret the effectiveness of the style and content layers at the attention
layers when training on the original training dataset and the stylized images.
We can tradeoff the model performance and convergence by dynamically varying
the proportion of augmented samples in the majority and minority classes. We
achieve comparable results to the SOTA with fewer training epochs and a
classifier with fewer training parameters.
- Abstract(参考訳): ドメインギャップによるモデルバイアスと,芸術様式の不均一な分布によるデータバイアスにより,絵画コレクション上の分類器の訓練は困難である。
データ蒸留、伝統的なデータ拡張、スタイル転送といった以前の技術は、タスク固有のトレーニングデータセットやドメイン適応を使用して分類子トレーニングを改善する。
本研究では,カオコレデータセットのような小さな絵画データセットにおけるデータバイアスを扱うとともに,実世界画像にトレーニングされたモデルを微調整する際に,ドメイン適応を同時に計算するシステムを提案する。
本システムは,スタイル転送と分類の2段階からなる。
スタイル転送ステージでは、一律にサンプリングされたコンテンツとスタイルイメージをクラスごとにスタイリッシュなトレーニングサンプルを生成し、各ドメインごとにスタイル変換ネットワークをトレーニングします。
分類段階では、オリジナルトレーニングデータセットとスタイライゼーション画像のトレーニングにおいて、注意層におけるスタイル層とコンテンツ層の有効性を解釈することができる。
多数派と少数派における増分サンプルの割合を動的に変化させることで、モデル性能と収束性をトレードオフすることができる。
訓練期間の短縮と,訓練パラメータの少ない分類器を用いて,somaと同等の結果を得る。
関連論文リスト
- ST-SACLF: Style Transfer Informed Self-Attention Classifier for Bias-Aware Painting Classification [9.534646914709018]
絵画分類は、デジタル美術館や古典美術館の美術品を整理し、発見し、提案する上で重要な役割を担っている。
既存の手法は、トレーニング中に実世界の知識を芸術的イメージに適応させることに苦労し、異なるデータセットを扱う際にはパフォーマンスが低下する。
適応インスタンス正規化(AdaIN)を使用したスタイル転送(Style Transfer)により、さまざまなスタイル間のギャップを埋める、より多くのデータを生成します。
40のトレーニングエポック上でResNet-50のバックボーンを使用して、87.24%の精度を実現した。
論文 参考訳(メタデータ) (2024-08-03T17:31:58Z) - Diversify Your Vision Datasets with Automatic Diffusion-Based
Augmentation [66.6546668043249]
ALIA(Automated Language-Guided Image Augmentation)は、大規模ビジョンと言語モデルを用いてデータセットのドメインの自然言語記述を自動的に生成する手法である。
データ整合性を維持するために、オリジナルのデータセットでトレーニングされたモデルは、最小限の画像編集とクラス関連情報を破損したデータをフィルタリングする。
そこで本研究では,ALIAが従来のデータ拡張や,詳細な分類作業におけるテキストから画像への変換を超越できることを示す。
論文 参考訳(メタデータ) (2023-05-25T17:43:05Z) - Balancing Effect of Training Dataset Distribution of Multiple Styles for
Multi-Style Text Transfer [8.305622604531074]
本稿では,データ入力の多様性がマルチスタイル転送モデルから生成したテキストの品質に与える影響について検討する。
トレーニングサンプルのスタイル分布を調整するために,擬似並列データセットを構築した。
バランスの取れたデータセットは、バランスの取れていないデータセットや歪んだデータセットよりも、複数のスタイルに対して効果的な制御効果をもたらす。
論文 参考訳(メタデータ) (2023-05-24T21:36:15Z) - Training on Thin Air: Improve Image Classification with Generated Data [28.96941414724037]
Diffusion Inversionは、画像分類のための多種多様な高品質なトレーニングデータを生成するための、シンプルで効果的な方法である。
提案手法は,元のデータ分布を捕捉し,画像を安定拡散の潜在空間に反転させることにより,データカバレッジを確保する。
生成した画像が元のデータセットに取って代わることに成功した3つの重要なコンポーネントを特定します。
論文 参考訳(メタデータ) (2023-05-24T16:33:02Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Improving filling level classification with adversarial training [90.01594595780928]
単一画像からカップや飲料グラスのコンテントのレベルを分類する問題について検討する。
汎用ソースデータセットで逆トレーニングを使用し、タスク固有のデータセットでトレーニングを洗練します。
ソース領域における逆学習による伝達学習は,テストセットの分類精度を常に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-08T08:32:56Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。