論文の概要: Augmentations: An Insight into their Effectiveness on Convolution Neural
Networks
- arxiv url: http://arxiv.org/abs/2205.04064v1
- Date: Mon, 9 May 2022 06:36:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 13:27:48.714407
- Title: Augmentations: An Insight into their Effectiveness on Convolution Neural
Networks
- Title(参考訳): Augmentations: 畳み込みニューラルネットワークの有効性に関する洞察
- Authors: Sabeesh Ethiraj, Bharath Kumar Bolla
- Abstract要約: モデルの堅牢性を高める能力は、viz-a-viz、モデルアーキテクチャ、拡張のタイプという2つの要因に依存します。
本稿では,3x3および奥行き分離可能な畳み込みを用いたパラメータが,異なる拡張手法に与える影響について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Augmentations are the key factor in determining the performance of any neural
network as they provide a model with a critical edge in boosting its
performance. Their ability to boost a model's robustness depends on two
factors, viz-a-viz, the model architecture, and the type of augmentations.
Augmentations are very specific to a dataset, and it is not imperative that all
kinds of augmentation would necessarily produce a positive effect on a model's
performance. Hence there is a need to identify augmentations that perform
consistently well across a variety of datasets and also remain invariant to the
type of architecture, convolutions, and the number of parameters used. Hence
there is a need to identify augmentations that perform consistently well across
a variety of datasets and also remain invariant to the type of architecture,
convolutions, and the number of parameters used. This paper evaluates the
effect of parameters using 3x3 and depth-wise separable convolutions on
different augmentation techniques on MNIST, FMNIST, and CIFAR10 datasets.
Statistical Evidence shows that techniques such as Cutouts and Random
horizontal flip were consistent on both parametrically low and high
architectures. Depth-wise separable convolutions outperformed 3x3 convolutions
at higher parameters due to their ability to create deeper networks.
Augmentations resulted in bridging the accuracy gap between the 3x3 and
depth-wise separable convolutions, thus establishing their role in model
generalization. At higher number augmentations did not produce a significant
change in performance. The synergistic effect of multiple augmentations at
higher parameters, with antagonistic effect at lower parameters, was also
evaluated. The work proves that a delicate balance between architectural
supremacy and augmentations needs to be achieved to enhance a model's
performance in any given deep learning task.
- Abstract(参考訳): 強化は、ニューラルネットワークのパフォーマンスを判断する上で重要な要素であり、パフォーマンスを高めるために重要なエッジを持つモデルを提供する。
モデルの堅牢性を高める能力は、viz-a-viz、モデルアーキテクチャ、拡張のタイプという2つの要素に依存する。
拡張はデータセットに非常に特有であり、すべての種類の拡張が必ずしもモデルのパフォーマンスにポジティブな影響をもたらすことは必須ではない。
したがって、さまざまなデータセットにまたがって一貫して機能し、アーキテクチャの種類、畳み込み、使用されるパラメータの数に不変である拡張子を特定する必要がある。
したがって、さまざまなデータセットにまたがって一貫して機能し、アーキテクチャの種類、畳み込み、使用されるパラメータの数に不変である拡張子を特定する必要がある。
本稿では,MNIST,FMNIST,CIFAR10データセットに対する3x3および奥行き分離可能な畳み込みを用いたパラメータの効果を評価する。
統計的証拠は、カットアウトやランダム水平フリップのような手法がパラメトリック・低・高アーキテクチャの両方で一致していることを示している。
奥行き分離可能な畳み込みは、より深いネットワークを構築する能力のため、より高いパラメータで3x3畳み込みよりも優れていた。
拡張は、3x3と深さ分離可能な畳み込みの間の精度の差を橋渡しし、モデル一般化におけるそれらの役割を確立した。
より多くの増補では、パフォーマンスに大きな変化は生じなかった。
また,高パラメータでの多重増補の相乗効果と低パラメータの相乗効果についても検討した。
この研究は、特定のディープラーニングタスクにおけるモデルのパフォーマンスを向上させるために、アーキテクチャ上の優越性と拡張性の微妙なバランスを達成する必要があることを証明している。
関連論文リスト
- Adapter-X: A Novel General Parameter-Efficient Fine-Tuning Framework for Vision [52.80792724919329]
本稿では,2次元画像と3次元点雲の微調整を改善するためのAdapter-Xという新しいフレームワークを提案する。
2D画像と3Dポイントの雲のモードで完全な微調整をし、パラメータが大幅に少ない、すなわち2Dと3Dの分類タスクにおいて、オリジナルのトレーニング可能なパラメータのわずか0.20%と1.88%で、初めて性能を上回った。
論文 参考訳(メタデータ) (2024-06-05T08:26:44Z) - TripletMix: Triplet Data Augmentation for 3D Understanding [64.65145700121442]
TripletMixは、3次元理解におけるマルチモーダルデータ拡張の未解決問題に対処するための新しいアプローチである。
本研究は,3次元物体認識と理解を著しく向上させるマルチモーダルデータ拡張の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-05-28T18:44:15Z) - HyCubE: Efficient Knowledge Hypergraph 3D Circular Convolutional Embedding [21.479738859698344]
本稿では,HyCubE を用いた エンドツーエンドの知識ハイパーグラフ埋め込みモデルを提案する。
提案モデルでは, 3次元円形畳み込み層構造を適応的に調整することにより, 有効性と効率のトレードオフを向上する。
すべてのデータセットに対する実験結果から,提案モデルが常に最先端のベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2024-02-14T06:05:37Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Revisiting Data Augmentation in Model Compression: An Empirical and
Comprehensive Study [17.970216875558638]
本稿では,モデル圧縮におけるデータ拡張の利用について再検討する。
異なるサイズのモデルでは、大きさの異なるデータ拡張が好ましいことを示す。
事前訓練された大規模モデルの予測は、データ拡張の難しさを測定するために利用することができる。
論文 参考訳(メタデータ) (2023-05-22T17:05:06Z) - Tunable Convolutions with Parametric Multi-Loss Optimization [5.658123802733283]
ニューラルネットワークの挙動は、トレーニング中に使用される特定の損失とデータによって不適切に決定される。
ユーザの好みやデータの動的特性といった外部要因に基づいて,推論時にモデルをチューニングすることが望ましい場合が多い。
これは、不適切な画像から画像への変換タスクの知覚歪曲トレードオフのバランスをとるために特に重要である。
論文 参考訳(メタデータ) (2023-04-03T11:36:10Z) - Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained
Language Models [68.9288651177564]
量子多体物理学から行列積演算子(MPO)に基づく新しいMoEアーキテクチャを提案する。
分解されたMPO構造により、元のMoEアーキテクチャのパラメータを減らすことができる。
GPT2に基づく3つの有名な下流自然言語データセットの実験は、モデルキャパシティの向上における性能と効率の向上を示している。
論文 参考訳(メタデータ) (2022-03-02T13:44:49Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - Understanding Overparameterization in Generative Adversarial Networks [56.57403335510056]
generative adversarial network (gans) は、非凹型ミニマックス最適化問題を訓練するために用いられる。
ある理論は、グローバル最適解に対する勾配降下 (gd) の重要性を示している。
ニューラルネットワークジェネレータと線形判別器を併用した多層GANにおいて、GDAは、基礎となる非凹面min-max問題の大域的なサドル点に収束することを示す。
論文 参考訳(メタデータ) (2021-04-12T16:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。