論文の概要: Learn2Synth: Learning Optimal Data Synthesis Using Hypergradients
- arxiv url: http://arxiv.org/abs/2411.16719v1
- Date: Sat, 23 Nov 2024 00:52:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:36:38.981075
- Title: Learn2Synth: Learning Optimal Data Synthesis Using Hypergradients
- Title(参考訳): Learn2Synth:ハイパーグラディエントを用いた最適データ合成学習
- Authors: Xiaoling Hu, Oula Puonti, Juan Eugenio Iglesias, Bruce Fischl, Yael Balbastre,
- Abstract要約: 合成によるドメインランダム化は、入力画像の領域に関してバイアスのないネットワークをトレーニングするための強力な戦略である。
本稿では,少数の実ラベル付きデータを用いて合成パラメータを学習する新しい手法であるLearner2 Synthを紹介する。
このアプローチにより、トレーニング手順は、セグメンテーションネットワークをトレーニングするためにこれらの実例を使用することなく、実際のラベル付き例の恩恵を受けることができる。
- 参考スコア(独自算出の注目度): 8.437109106999443
- License:
- Abstract: Domain randomization through synthesis is a powerful strategy to train networks that are unbiased with respect to the domain of the input images. Randomization allows networks to see a virtually infinite range of intensities and artifacts during training, thereby minimizing overfitting to appearance and maximizing generalization to unseen data. While powerful, this approach relies on the accurate tuning of a large set of hyper-parameters governing the probabilistic distribution of the synthesized images. Instead of manually tuning these parameters, we introduce Learn2Synth, a novel procedure in which synthesis parameters are learned using a small set of real labeled data. Unlike methods that impose constraints to align synthetic data with real data (e.g., contrastive or adversarial techniques), which risk misaligning the image and its label map, we tune an augmentation engine such that a segmentation network trained on synthetic data has optimal accuracy when applied to real data. This approach allows the training procedure to benefit from real labeled examples, without ever using these real examples to train the segmentation network, which avoids biasing the network towards the properties of the training set. Specifically, we develop both parametric and nonparametric strategies to augment the synthetic images, enhancing the segmentation network's performance. Experimental results on both synthetic and real-world datasets demonstrate the effectiveness of this learning strategy. Code is available at: https://github.com/HuXiaoling/Learn2Synth.
- Abstract(参考訳): 合成によるドメインランダム化は、入力画像の領域に関してバイアスのないネットワークをトレーニングするための強力な戦略である。
ランダム化により、ネットワークはトレーニング中に事実上無限の強度とアーティファクトを見ることができるため、外観への過度な適合を最小化し、目に見えないデータへの一般化を最大化する。
このアプローチは強力であるが、合成された画像の確率分布を管理する大きなハイパーパラメータのセットの正確なチューニングに依存している。
本稿では、これらのパラメータを手動でチューニングする代わりに、実際のラベル付きデータの小さなセットを用いて合成パラメータを学習する新しい手法であるLearner2Synthを紹介する。
合成データと実データ(例えば、コントラストや逆方向の手法)の整合を制約する手法とは異なり、合成データに基づいてトレーニングされたセグメンテーションネットワークが実データに適用した場合に最適な精度を有するように拡張エンジンを調整する。
このアプローチにより、トレーニング手順は、これらの実例を使用してセグメンテーションネットワークをトレーニングすることなく、実際のラベル付き例の恩恵を受けることができる。
具体的には,合成画像の拡張のためのパラメトリックと非パラメトリックの戦略を開発し,セグメンテーションネットワークの性能を向上させる。
合成と実世界の両方のデータセットに対する実験結果から,この学習戦略の有効性が示された。
コードは、https://github.com/HuXiaoling/Learn2Synth.comで入手できる。
関連論文リスト
- Diversity-Driven Synthesis: Enhancing Dataset Distillation through Directed Weight Adjustment [39.137060714048175]
多様性の向上は、データセットを合成するための並列化可能であるが孤立したアプローチを改善することができる、と我々は主張する。
本稿では,動的かつ指向的な重み調整技術を用いて合成過程を変調する新しい手法を提案する。
提案手法は,合成データの各バッチが,元のデータセットの大規模かつ多様なサブセットの特徴を反映していることを保証する。
論文 参考訳(メタデータ) (2024-09-26T08:03:19Z) - Object Detector Differences when using Synthetic and Real Training Data [0.0]
都市環境からの実画像と合成画像に基づいてYOLOv3オブジェクト検出器を訓練する。
本研究では,CKA(Centered Kernel Alignment)を用いた類似性解析を行い,合成データに対する学習効果について検討する。
その結果、実データで訓練された検出器と合成データで訓練された検出器との最大の類似性は初期の層にあり、最も大きな違いは頭部にあることがわかった。
論文 参考訳(メタデータ) (2023-12-01T16:27:48Z) - Sequential Subset Matching for Dataset Distillation [44.322842898670565]
我々はSeqMatch(Sequential Subset Matching)と呼ばれる新しいデータセット蒸留戦略を提案する。
解析の結果,SeqMatchは合成インスタンスを逐次生成することで,結合問題に効果的に対処できることが示唆された。
私たちのコードはhttps://github.com/shqii1j/seqmatch.comから入手可能です。
論文 参考訳(メタデータ) (2023-11-02T19:49:11Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Condensing Graphs via One-Step Gradient Matching [50.07587238142548]
ネットワーク重みを訓練せずに1ステップのみの勾配マッチングを行う1ステップ勾配マッチング方式を提案する。
我々の理論的分析は、この戦略が実際のグラフの分類損失を減少させる合成グラフを生成することができることを示している。
特に、元のパフォーマンスの最大98%を近似しながら、データセットサイズを90%削減することが可能です。
論文 参考訳(メタデータ) (2022-06-15T18:20:01Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Dataset Condensation with Gradient Matching [36.14340188365505]
本研究では,大規模なデータセットを,深層ニューラルネットワークをスクラッチからトレーニングするための情報的合成サンプルの小さなセットに凝縮させることを学習する,データセット凝縮という,データ効率のよい学習のためのトレーニングセット合成手法を提案する。
いくつかのコンピュータビジョンベンチマークでその性能を厳格に評価し、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:30:52Z) - Syn2Real Transfer Learning for Image Deraining using Gaussian Processes [92.15895515035795]
CNNに基づく画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
実世界の完全ラベル付き画像デライニングデータセットを取得する上での課題により、既存の手法は合成されたデータのみに基づいて訓練される。
本稿では,ガウス過程に基づく半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T00:33:18Z) - Symmetrical Synthesis for Deep Metric Learning [17.19890778916312]
対称合成と呼ばれる新しい合成ハードサンプル生成法を提案する。
同じクラスから2つの元の特徴点が与えられた場合、提案手法は対称性の軸として互いに合成点を生成する。
原点および合成点内で硬い負のペアマイニングを行い、計量学習損失を計算するためのより有益な負のペアを選択する。
論文 参考訳(メタデータ) (2020-01-31T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。