論文の概要: Improving the performance of weak supervision searches using data augmentation
- arxiv url: http://arxiv.org/abs/2412.00198v1
- Date: Fri, 29 Nov 2024 19:00:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:41:45.690874
- Title: Improving the performance of weak supervision searches using data augmentation
- Title(参考訳): データ拡張による弱監視探索の性能向上
- Authors: Zong-En Chen, Cheng-Wei Chiang, Feng-Yang Hsieh,
- Abstract要約: 弱監督は、実際のデータに対するトレーニングの利点と、信号特性を利用する能力を組み合わせる。
我々は、データ拡張によるこの制限に対処し、トレーニングデータのサイズと多様性を高めることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Weak supervision combines the advantages of training on real data with the ability to exploit signal properties. However, training a neural network using weak supervision often requires an excessive amount of signal data, which severely limits its practical applicability. In this study, we propose addressing this limitation through data augmentation, increasing the training data's size and diversity. Specifically, we focus on physics-inspired data augmentation methods, such as $p_{\text{T}}$ smearing and jet rotation. Our results demonstrate that data augmentation can significantly enhance the performance of weak supervision, enabling neural networks to learn efficiently from substantially less data.
- Abstract(参考訳): 弱監督は、実際のデータに対するトレーニングの利点と、信号特性を利用する能力を組み合わせる。
しかし、弱い監視を用いてニューラルネットワークをトレーニングするには、しばしば過剰な信号データを必要とするため、実用性を大幅に制限する。
本研究では、データ拡張によるこの制限に対処し、トレーニングデータのサイズと多様性を高めることを提案する。
具体的には、$p_{\text{T}}$ smearing や jet rotation といった物理に着想を得たデータ拡張手法に着目する。
以上の結果から,データ拡張によって弱い監視性能が著しく向上し,ニューラルネットワークが極めて少ないデータから効率的に学習できることが示唆された。
関連論文リスト
- Large-Scale Dataset Pruning in Adversarial Training through Data Importance Extrapolation [1.3124513975412255]
本稿では,少数のデータ集合からより大きなデータ集合へのデータ重要度スコアの補間に基づく新たなデータ抽出戦略を提案する。
実験的な評価では,外挿型プルーニングは頑健性を維持しつつ,データセットサイズを効率的に削減できることを示した。
論文 参考訳(メタデータ) (2024-06-19T07:23:51Z) - Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Improving the performance of weak supervision searches using transfer
and meta-learning [0.0]
我々は、トランスファーとメタラーニングを使用して、実験の少ない信号から学習できるニューラルネットワークを作ろうとしている。
トランスファーとメタラーニングは、弱い監督探索の性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-12-11T06:40:46Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Augmentation-Aware Self-Supervision for Data-Efficient GAN Training [68.81471633374393]
識別器が過度に適合する傾向があるため、限られたデータでGANを訓練することは困難である。
本稿では,拡張データの拡張パラメータを予測する,拡張型自己教師型識別器を提案する。
本稿では,クラス条件の BigGAN と非条件の StyleGAN2 アーキテクチャを用いた State-of-the-art (SOTA) 手法と比較する。
論文 参考訳(メタデータ) (2022-05-31T10:35:55Z) - Deep Reinforcement Learning Assisted Federated Learning Algorithm for
Data Management of IIoT [82.33080550378068]
産業用IoT(Industrial Internet of Things)の継続的な拡大により、IIoT機器は毎回大量のユーザデータを生成する。
IIoTの分野で、これらの時系列データを効率的かつ安全な方法で管理する方法は、依然として未解決の問題である。
本稿では,無線ネットワーク環境におけるIIoT機器データ管理におけるFL技術の適用について検討する。
論文 参考訳(メタデータ) (2022-02-03T07:12:36Z) - The Imaginative Generative Adversarial Network: Automatic Data
Augmentation for Dynamic Skeleton-Based Hand Gesture and Human Action
Recognition [27.795763107984286]
本稿では、入力データの分布を近似し、この分布から新しいデータをサンプリングする新しい自動データ拡張モデルを提案する。
以上の結果から,拡張戦略は訓練が高速であり,ニューラルネットワークと最先端手法の両方の分類精度を向上させることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-05-27T11:07:09Z) - Mixing Real and Synthetic Data to Enhance Neural Network Training -- A
Review of Current Approaches [0.0]
文献で利用可能なさまざまなテクニックをレビューし比較し、付加的な注釈付き実世界のデータを取得することなく、トレーニング結果を改善する。
この目標は主に、アノテーションを保存する変換を既存のデータに適用することや、さらに多くのデータを合成することによって達成されます。
論文 参考訳(メタデータ) (2020-07-17T07:12:31Z) - Provably Efficient Causal Reinforcement Learning with Confounded
Observational Data [135.64775986546505]
オフラインで収集されたデータセット(観測データ)を組み込んで、オンライン環境でのサンプル効率を改善する方法について検討する。
提案手法は,観測データを効率よく組み込んだ,分解された楽観的値反復 (DOVI) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-22T14:49:33Z) - Understanding the Effects of Data Parallelism and Sparsity on Neural
Network Training [126.49572353148262]
ニューラルネットワークトレーニングにおける2つの要因として,データ並列性と疎性について検討する。
有望なメリットにもかかわらず、ニューラルネットワークトレーニングに対する彼らの影響を理解することは、依然として明白である。
論文 参考訳(メタデータ) (2020-03-25T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。