論文の概要: Genetic Learning for Designing Sim-to-Real Data Augmentations
- arxiv url: http://arxiv.org/abs/2403.06786v1
- Date: Mon, 11 Mar 2024 15:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 18:44:23.959115
- Title: Genetic Learning for Designing Sim-to-Real Data Augmentations
- Title(参考訳): Sim-to-Realデータ拡張設計のための遺伝的学習
- Authors: Bram Vanherle, Nick Michiels, Frank Van Reeth
- Abstract要約: データ拡張は、合成データのトレーニングにおいて、sim-to-realドメインギャップを閉じるのに有用である。
多くの画像増強技術があり、強度や確率などの異なる設定でパラメータ化されている。
本稿では、特定のsim-to-real設定に対して、ある拡張ポリシーがどの程度うまく機能するかを予測するために、組み合わせられる2つの異なる解釈可能な指標を提案する。
- 参考スコア(独自算出の注目度): 1.03590082373586
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data augmentations are useful in closing the sim-to-real domain gap when
training on synthetic data. This is because they widen the training data
distribution, thus encouraging the model to generalize better to other domains.
Many image augmentation techniques exist, parametrized by different settings,
such as strength and probability. This leads to a large space of different
possible augmentation policies. Some policies work better than others for
overcoming the sim-to-real gap for specific datasets, and it is unclear why.
This paper presents two different interpretable metrics that can be combined to
predict how well a certain augmentation policy will work for a specific
sim-to-real setting, focusing on object detection. We validate our metrics by
training many models with different augmentation policies and showing a strong
correlation with performance on real data. Additionally, we introduce
GeneticAugment, a genetic programming method that can leverage these metrics to
automatically design an augmentation policy for a specific dataset without
needing to train a model.
- Abstract(参考訳): データ拡張は、合成データのトレーニング時にsim-to-realドメインギャップを閉じるのに役立つ。
これは、トレーニングデータの分散を広げ、モデルが他のドメインにもっと一般化するよう促すためです。
多くの画像増強技術があり、強度や確率などの異なる設定でパラメータ化されている。
これにより、さまざまな拡張ポリシの空間が生まれる。
いくつかのポリシーは、特定のデータセットのsim-to-realギャップを克服するために、他のポリシーよりもうまく機能する。
本稿では,オブジェクト検出に焦点をあてて,ある拡張ポリシーが特定のsim-to-real設定に対してどの程度うまく機能するかを予測するために組み合わせることができる2つの異なる解釈可能な指標を提案する。
我々は、異なる拡張ポリシーで多くのモデルをトレーニングし、実データのパフォーマンスと強い相関関係を示すことで、メトリクスを検証する。
さらに、これらのメトリクスを活用する遺伝的プログラミング手法であるGenematicAugmentを導入し、モデルをトレーニングすることなく、特定のデータセットに対する拡張ポリシーを自動的に設計する。
関連論文リスト
- How Does Data Diversity Shape the Weight Landscape of Neural Networks? [2.89287673224661]
本稿では, ニューラルネットワークのパラメータ空間に対する降雨量, 重量減衰量, 騒音増大の影響について検討する。
我々は、多様なデータが、ドロップアウトと同様の方法で重量景観に影響を与えることを観察する。
合成データにより、実際の入力データにより多くの多様性がもたらされ、アウト・オブ・ディストリビューションテストインスタンスの性能が向上する、と結論付けている。
論文 参考訳(メタデータ) (2024-10-18T16:57:05Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Self-supervised Representation Learning From Random Data Projectors [13.764897214965766]
本稿では,任意のデータモダリティとネットワークアーキテクチャに適用可能なSSRL手法を提案する。
ランダムなデータプロジェクションを再構築することで,高品質なデータ表現が学習可能であることを示す。
論文 参考訳(メタデータ) (2023-10-11T18:00:01Z) - When to Learn What: Model-Adaptive Data Augmentation Curriculum [32.99634881669643]
本稿では,モデル適応型データ拡張(MADAug)を提案する。
従来の作業とは異なり、MADAugはトレーニング段階によって異なるモデル適応ポリシーにより、各入力画像に対する拡張演算子を選択し、より良い一般化のために最適化されたデータ拡張カリキュラムを生成する。
論文 参考訳(メタデータ) (2023-09-09T10:35:27Z) - Scaling Laws Do Not Scale [54.72120385955072]
最近の研究によると、データセットのサイズが大きくなると、そのデータセットでトレーニングされたモデルのパフォーマンスが向上する。
このスケーリング法則の関係は、モデルのアウトプットの質を異なる集団がどのように認識するかと一致しないパフォーマンスを測定するために使われる指標に依存する、と我々は主張する。
異なるコミュニティは、互いに緊張関係にある価値を持ち、モデル評価に使用されるメトリクスについて、困難で、潜在的に不可能な選択をもたらす可能性がある。
論文 参考訳(メタデータ) (2023-07-05T15:32:21Z) - Phased Data Augmentation for Training a Likelihood-Based Generative Model with Limited Data [0.0]
生成モデルは現実的なイメージの作成に優れていますが、トレーニングのための広範なデータセットに依存しているため、大きな課題があります。
現在のデータ効率の手法はGANアーキテクチャに重点を置いており、他の生成モデルの訓練にギャップを残している。
位相データ拡張(phased data augmentation)は、このギャップに対処する新しい手法であり、データ分散に固有の変更を加えることなく、限られたデータシナリオでのトレーニングを最適化する。
論文 参考訳(メタデータ) (2023-05-22T03:38:59Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - DNA: Dynamic Network Augmentation [0.0]
入力条件拡張ポリシーを学習する動的ネットワーク拡張(DNA)を導入する。
我々のモデルは動的拡張ポリシーを可能にし、入力特徴に条件付き幾何変換を持つデータに対してうまく機能する。
論文 参考訳(メタデータ) (2021-12-17T01:43:56Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z) - Learning Representational Invariances for Data-Efficient Action
Recognition [52.23716087656834]
我々は,データ拡張戦略により,Kinetics-100,UCF-101,HMDB-51データセットのパフォーマンスが期待できることを示す。
また,完全な教師付き設定でデータ拡張戦略を検証し,性能向上を実証した。
論文 参考訳(メタデータ) (2021-03-30T17:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。