論文の概要: Dynamic Data Augmentation with Gating Networks
- arxiv url: http://arxiv.org/abs/2111.03253v1
- Date: Fri, 5 Nov 2021 04:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 15:48:15.204551
- Title: Dynamic Data Augmentation with Gating Networks
- Title(参考訳): ゲーティングネットワークを用いた動的データ拡張
- Authors: Daisuke Oba, Shinnosuke Matsuo and Brian Kenji Iwana
- Abstract要約: 本稿では,互いに有利なゲーティングネットワークと特徴整合損失を用いて,最適な組み合わせを動的に選択するニューラルネットワークを提案する。
実験では,2018 UCR Time Series Archiveの12大時系列データセットに対して提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 5.251019642214251
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a technique to improve the generalization ability of
machine learning methods by increasing the size of the dataset. However, since
every augmentation method is not equally effective for every dataset, you need
to carefully select the best method. We propose a neural network that
dynamically selects the best combination using a mutually beneficial gating
network and a feature consistency loss. The gating network is able to control
how much of each data augmentation is used for the representation within the
network. The feature consistency loss, on the other hand, gives a constraint
that augmented features from the same input should be in similar. In
experiments, we demonstrate the effectiveness of the proposed method on the 12
largest time-series datasets from 2018 UCR Time Series Archive and reveal the
relationships between the data augmentation methods through analysis of the
proposed method.
- Abstract(参考訳): データ拡張は、データセットのサイズを大きくすることで、機械学習メソッドの一般化能力を改善する技術である。
しかしながら、すべての拡張メソッドはすべてのデータセットに等しく有効ではないため、ベストメソッドを慎重に選択する必要があります。
本稿では,互いに有利なゲーティングネットワークと特徴整合損失を用いて,最適な組み合わせを動的に選択するニューラルネットワークを提案する。
ゲーティングネットワークは、各データ拡張がネットワーク内の表現にどれだけ使われているかを制御することができる。
一方、機能一貫性の損失は、同じ入力から拡張された機能を同じものにすべきという制約を与えます。
実験では,2018年のudr時系列アーカイブから得られた12大時系列データセットに対する提案手法の有効性を実証し,提案手法の解析によるデータ拡張手法の関係を明らかにする。
関連論文リスト
- Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Dynamic Data Augmentation via MCTS for Prostate MRI Segmentation [19.780410411548935]
本稿ではDDAug(Dynamic Data Augmentation)を提案する。
DDAug計算は、様々な拡張を表現する階層木構造を開発する。
我々の手法は、現在の最先端データ拡張戦略より優れています。
論文 参考訳(メタデータ) (2023-05-25T06:44:43Z) - Personalized Decentralized Multi-Task Learning Over Dynamic
Communication Graphs [59.96266198512243]
本稿では,正と負の相関関係を持つタスクに対する分散・フェデレーション学習アルゴリズムを提案する。
本アルゴリズムでは,タスク間の相関関係を自動的に計算し,コミュニケーショングラフを動的に調整して相互に有益なタスクを接続し,互いに悪影響を及ぼす可能性のあるタスクを分離する。
合成ガウスデータセットと大規模セレブ属性(CelebA)データセットについて実験を行った。
論文 参考訳(メタデータ) (2022-12-21T18:58:24Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Infinite Recommendation Networks: A Data-Centric Approach [8.044430277912936]
Neural Tangent Kernelを活用して、無限大のニューラルネットワークをトレーニングし、無限大のボトルネック層を持つオートエンコーダであるinfty$-AEを考案します。
また、小型で高忠実なデータ要約を合成するためのDistill-CFを開発した。
我々は、最初のデータセットサイズの0.1%に満たない完全なデータセット上で、infty$-AEのパフォーマンスの96-105%を観察した。
論文 参考訳(メタデータ) (2022-06-03T00:34:13Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Complex Wavelet SSIM based Image Data Augmentation [0.0]
我々は,MNIST手書き画像データセットを数値認識に用いる画像データセットとして検討する。
このデータセットの弾性変形に最もよく用いられる拡張手法の1つを詳細に検討する。
本稿では、複雑なウェーブレット構造類似度指標(CWSSIM)と呼ばれる類似度尺度を用いて、無関係なデータを選択的にフィルタリングする手法を提案する。
論文 参考訳(メタデータ) (2020-07-11T21:11:46Z) - Learning Data Augmentation with Online Bilevel Optimization for Image
Classification [14.488360021440448]
本稿では,その一般化を改善するために,変換の効果的な分布を学習するネットワークを自動的に訓練する効率的な手法を提案する。
共同学習法は手作業によるデータ拡張に匹敵する画像分類精度が得られた。
論文 参考訳(メタデータ) (2020-06-25T21:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。