論文の概要: Enhancing Visual Perception in Novel Environments via Incremental Data
Augmentation Based on Style Transfer
- arxiv url: http://arxiv.org/abs/2309.08851v1
- Date: Sat, 16 Sep 2023 03:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 19:05:07.994200
- Title: Enhancing Visual Perception in Novel Environments via Incremental Data
Augmentation Based on Style Transfer
- Title(参考訳): スタイル伝達に基づくインクリメンタルデータ拡張による新しい環境における視覚知覚の促進
- Authors: Abhibha Gupta, Rully Agus Hendrawan, Mansur Arief
- Abstract要約: 未知の未知"は、現実のシナリオにおける自律的なエージェントデプロイメントに挑戦する。
提案手法は,変分プロトタイピング(VPE)を利用して,新規入力を積極的に識別し,処理することで視覚知覚を向上させる。
本研究は,ドメイン固有の拡張戦略に生成モデルを組み込むことの潜在的な利点を示唆する。
- 参考スコア(独自算出の注目度): 2.516855334706386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The deployment of autonomous agents in real-world scenarios is challenged by
"unknown unknowns", i.e. novel unexpected environments not encountered during
training, such as degraded signs. While existing research focuses on anomaly
detection and class imbalance, it often fails to address truly novel scenarios.
Our approach enhances visual perception by leveraging the Variational
Prototyping Encoder (VPE) to adeptly identify and handle novel inputs, then
incrementally augmenting data using neural style transfer to enrich
underrepresented data. By comparing models trained solely on original datasets
with those trained on a combination of original and augmented datasets, we
observed a notable improvement in the performance of the latter. This
underscores the critical role of data augmentation in enhancing model
robustness. Our findings suggest the potential benefits of incorporating
generative models for domain-specific augmentation strategies.
- Abstract(参考訳): 現実のシナリオにおける自律エージェントの展開は、「未知の未知」すなわち、劣化した兆候のようなトレーニング中に遭遇しない新しい予期せぬ環境によって挑戦される。
既存の研究は異常検出とクラス不均衡に焦点を当てているが、真に新しいシナリオに対処できないことが多い。
提案手法は, 変分プロトタイピングエンコーダ(VPE)を用いて, 新たな入力を積極的に識別し, 処理し, ニューラルスタイルの転送を用いてデータをインクリメンタルに拡張し, 未表現データを豊かにする。
原データセットのみにトレーニングされたモデルと、原データセットと増補データセットの組み合わせでトレーニングされたモデルを比較することにより、後者のパフォーマンスが顕著に向上した。
これはデータの強化がモデルの堅牢性を高める上で重要な役割を担っている。
以上の結果から,生成モデルの導入によるドメイン特化戦略の利点が示唆された。
関連論文リスト
- A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Comprehensive Exploration of Synthetic Data Generation: A Survey [4.485401662312072]
この研究は、過去10年間で417のSynthetic Data Generationモデルを調査します。
その結果、ニューラルネットワークベースのアプローチが普及し、モデルのパフォーマンスと複雑性が向上したことが明らかになった。
コンピュータビジョンが支配的であり、GANが主要な生成モデルであり、拡散モデル、トランスフォーマー、RNNが競合する。
論文 参考訳(メタデータ) (2024-01-04T20:23:51Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - Single-Shot Domain Adaptation via Target-Aware Generative Augmentation [21.17396588958938]
既存手法による拡張は,大規模な分散シフトを扱うには不十分である,と我々は主張する。
本稿では、まず、単一ショットターゲットを用いて、ソースドメインから生成モデルを微調整するSiSTA(Single-Shot Target Augmentations)を提案する。
顔検出において,SiSTAは既存のベースラインよりも最大20%改善できることがわかった。
論文 参考訳(メタデータ) (2022-10-29T20:53:57Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - The Imaginative Generative Adversarial Network: Automatic Data
Augmentation for Dynamic Skeleton-Based Hand Gesture and Human Action
Recognition [27.795763107984286]
本稿では、入力データの分布を近似し、この分布から新しいデータをサンプリングする新しい自動データ拡張モデルを提案する。
以上の結果から,拡張戦略は訓練が高速であり,ニューラルネットワークと最先端手法の両方の分類精度を向上させることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-05-27T11:07:09Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - On Robustness and Transferability of Convolutional Neural Networks [147.71743081671508]
現代の深層畳み込みネットワーク(CNN)は、分散シフトの下で一般化しないとしてしばしば批判される。
現代画像分類CNNにおける分布外と転送性能の相互作用を初めて検討した。
トレーニングセットとモデルサイズを増大させることで、分散シフトロバスト性が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-16T18:39:04Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。