論文の概要: Analysis of Filter Size Effect In Deep Learning
- arxiv url: http://arxiv.org/abs/2101.01115v1
- Date: Sat, 12 Dec 2020 11:05:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 07:44:37.606310
- Title: Analysis of Filter Size Effect In Deep Learning
- Title(参考訳): 深層学習におけるフィルタサイズ効果の解析
- Authors: Yunus Camg\"ozl\"u, Yakup Kutlu
- Abstract要約: 本研究では,一定の背景を持つ葉画像からなるmendeleyデータセットを用いて葉の分類を行った。
プール層の異なる使用、層数の増加または減少による変化、使用されるデータのサイズの違い、および異なるパラメータで使用される多くの関数の結果が評価される。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the use of deep learning in many areas, how to improve this technology
or how to develop the structure used more effectively and in a shorter time is
an issue that is of interest to many people working in this field. Many studies
are carried out on this subject, it is aimed to reduce the duration of the
operation and the processing power required, except to obtain the best result
with the changes made in the variables, functions and data in the models used.
In this study, in the leaf classification made using Mendeley data set
consisting of leaf images with a fixed background, all other variables such as
layer number, iteration, number of layers in the model and pooling process were
kept constant, except for the filter dimensions of the convolution layers in
the determined model. Convolution layers in 3 different filter sizes and in
addition to this, many results obtained in 2 different structures, increasing
and decreasing, and 3 different image sizes were examined. In the literature,
it is seen that different uses of pooling layers, changes due to increase or
decrease in the number of layers, the difference in the size of the data used,
and the results of many functions used with different parameters are evaluated.
In the leaf classification of the determined data set with CNN, the change in
the filter size of the convolution layer together with the change in different
filter combinations and in different sized images was focused. Using the data
set and data reproduction methods, it was aimed to make the differences in
filter sizes and image sizes more distinct. Using the fixed number of
iterations, model and data set, the effect of different filter sizes has been
observed.
- Abstract(参考訳): 多くの分野でディープラーニングを使うことによって、この技術を改善する方法や、より効果的に使用される構造を短時間で開発する方法は、この分野で働く多くの人々にとって関心のある問題である。
この課題に関して多くの研究が行われており、使用するモデルにおける変数、関数、データの変更による最良の結果を得るためを除いて、動作の持続時間と処理能力を低減することを目的としている。
本研究では,一定の背景を持つ葉画像からなるmendeleyデータセットを用いた葉分類において,決定されたモデルにおける畳み込み層のフィルタ寸法を除いて,モデル内の層数,反復数,層数,プーリング過程などの他の変数はすべて一定に保たれた。
3つの異なるフィルタサイズでの畳み込み層とそれに加えて、2つの異なる構造で得られた多くの結果が増加・減少し、3つの異なる画像サイズについて検討した。
文献では, プーリング層の利用方法の違い, 層数の増加や減少による変化, 使用するデータサイズの違い, パラメータの異なる多数の関数の結果を評価した。
CNNを用いて決定されたデータセットの葉柄分類において, コンボリューション層のフィルタサイズの変化と, フィルタの組み合わせの変化と, 画像サイズの違いに着目した。
データセットとデータ再生法を用いて,フィルタサイズと画像サイズの違いをより明確にすることを目的とした。
一定回数の反復、モデル、データセットを用いて、異なるフィルタサイズの影響が観測されている。
関連論文リスト
- Dataset Condensation via Generative Model [71.89427409059472]
本稿では,大規模データセットを別のフォーマット,生成モデルに変換することを提案する。
このような新しいフォーマットは、クラス数や画像解像度が増加するにつれて生成モデルのサイズが比較的安定であるため、大きなデータセットの凝縮を可能にする。
凝縮試料の関係をモデル化するために,クラス内損失とクラス間損失を提案する。
論文 参考訳(メタデータ) (2023-09-14T13:17:02Z) - Filter Pruning via Filters Similarity in Consecutive Layers [20.29555787754269]
畳み込みニューラルネットワーク(CNN)の圧縮と高速化にフィルタプルーニングが広く採用されている
我々は,FSCL(Consecutive Layers)におけるフィルタ類似性を明示的に活用して,新しいプルーニング手法を直感的に提案する。
実験によりFSCLの有効性が示され, 精度, FLOP, パラメータ還元に対する最先端技術よりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2023-04-26T09:18:38Z) - Scale-Equivariant UNet for Histopathology Image Segmentation [1.213915839836187]
畳み込みニューラルネットワーク(CNN)は、特定のスケールでそのような画像で訓練されたが、異なるスケールのものに一般化することができない。
本稿では,スケール空間理論に基づく画像分割のためのスケール・エクイバティブUNet(SEUNet)を提案する。
論文 参考訳(メタデータ) (2023-04-10T14:03:08Z) - Does Medical Imaging learn different Convolution Filters? [2.0305676256390934]
本研究では,何百もの異種画像モデルを含む大規模研究を通して,学習した畳み込みフィルタの分布について検討する。
研究された画像領域のうち、医療画像モデルでは、"スパイキー"分布を通じて大きなアウトリーチを示すように見えた。
基本的な違いの代わりに、いくつかのアーキテクチャにおける特定の処理によるオフレイジがあることが示されています。
論文 参考訳(メタデータ) (2022-10-25T07:05:46Z) - CNN Filter DB: An Empirical Investigation of Trained Convolutional
Filters [2.0305676256390934]
モデル事前学習は、サイズと分散条件を満たす場合、任意のデータセットで成功することを示す。
事前学習された多くのモデルには、劣化したフィルタが含まれており、それによって、より堅牢で、ターゲットアプリケーションの微調整に適さないことが示される。
論文 参考訳(メタデータ) (2022-03-29T08:25:42Z) - Learning Versatile Convolution Filters for Efficient Visual Recognition [125.34595948003745]
本稿では,効率的な畳み込みニューラルネットワーク構築のための多目的フィルタを提案する。
本稿では,ネットワークの複雑性に関する理論的解析を行い,効率的な畳み込み手法を提案する。
ベンチマークデータセットとニューラルネットワークの実験結果は、我々の汎用フィルタが元のフィルタと同等の精度を達成できることを実証している。
論文 参考訳(メタデータ) (2021-09-20T06:07:14Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - Multi-scale Image Decomposition using a Local Statistical Edge Model [0.0]
サブウィンドウ分散フィルタという新しい非線形フィルタを用いたプログレッシブ画像分解手法を提案する。
本手法は,画像のディテール向上のために特別に設計されている。
論文 参考訳(メタデータ) (2021-05-05T09:38:07Z) - Convolutional Neural Networks from Image Markers [62.997667081978825]
特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
論文 参考訳(メタデータ) (2020-12-15T22:58:23Z) - Shallow Feature Based Dense Attention Network for Crowd Counting [103.67446852449551]
静止画像から群衆を数えるためのShallow機能に基づくDense Attention Network (SDANet)を提案する。
提案手法は,SDANetの11.9%の平均絶対誤差(MAE)低下から明らかなように,既存の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-06-17T13:34:42Z) - Recognizing Instagram Filtered Images with Feature De-stylization [81.38905784617089]
本稿では,Instagramのフィルターによって,事前学習モデルがどのような影響を受けているかについて検討する。
画像のグローバルな外観を変えるだけの単純な構造保存フィルタは、畳み込み特徴空間に大きな違いをもたらす可能性が示唆された。
我々は,特徴マップのスケーリングとシフトに使用されるパラメータを予測し,フィルタによって引き起こされる変化を“無視”する,軽量なデスティル化モジュールを導入する。
論文 参考訳(メタデータ) (2019-12-30T16:48:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。