論文の概要: Dead Pixel Test Using Effective Receptive Field
- arxiv url: http://arxiv.org/abs/2108.13576v1
- Date: Tue, 31 Aug 2021 01:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 04:42:33.323706
- Title: Dead Pixel Test Using Effective Receptive Field
- Title(参考訳): 有効受容場を用いたデッドピクセル試験
- Authors: Bum Jun Kim, Hyeyeon Choi, Hyeonah Jang, Dong Gu Lee, Wonseok Jeong,
and Sang Woo Kim
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の2つの逆直観的挙動について論じる。
受信フィールドのサイズを評価し,出力に寄与する画素について検討する。
出力にはほとんど寄与しない部分的なデッド状態にピクセルが存在することがわかった。
- 参考スコア(独自算出の注目度): 4.682689635018936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have been used in various fields, but their internal
behavior is not well known. In this study, we discuss two counterintuitive
behaviors of convolutional neural networks (CNNs). First, we evaluated the size
of the receptive field. Previous studies have attempted to increase or control
the size of the receptive field. However, we observed that the size of the
receptive field does not describe the classification accuracy. The size of the
receptive field would be inappropriate for representing superiority in
performance because it reflects only depth or kernel size and does not reflect
other factors such as width or cardinality. Second, using the effective
receptive field, we examined the pixels contributing to the output.
Intuitively, each pixel is expected to equally contribute to the final output.
However, we found that there exist pixels in a partially dead state with little
contribution to the output. We reveal that the reason for this lies in the
architecture of CNN and discuss solutions to reduce the phenomenon.
Interestingly, for general classification tasks, the existence of dead pixels
improves the training of CNNs. However, in a task that captures small
perturbation, dead pixels degrade the performance. Therefore, the existence of
these dead pixels should be understood and considered in practical applications
of CNN.
- Abstract(参考訳): ディープニューラルネットワークは様々な分野で使用されているが、その内部挙動はよく分かっていない。
本研究では,畳み込みニューラルネットワーク(CNN)の2つの逆直観的動作について論じる。
まず,受容野の大きさについて検討した。
以前の研究では受容野の大きさを増加または制御しようと試みている。
しかし, 受容場の大きさは分類精度を記述していないことがわかった。
受容場の大きさは、深さやカーネルサイズのみを反映し、幅や濃度といった他の要因を反映しないため、性能の優位性を表すには不適当である。
第2に,有効受容場を用いて,出力に寄与する画素について検討した。
直感的には、各ピクセルは最終出力に等しく寄与することが期待される。
しかし,出力にはほとんど寄与しない部分死状態の画素が存在することが判明した。
この原因がCNNのアーキテクチャにあることを明らかにし、この現象を減らすための解決策について議論する。
興味深いことに、一般的な分類タスクでは、デッドピクセルの存在はCNNのトレーニングを改善する。
しかし、小さな摂動を捉えるタスクでは、デッドピクセルが性能を劣化させる。
したがって、これらの死画素の存在はCNNの実践的応用において理解され検討されるべきである。
関連論文リスト
- PadChannel: Improving CNN Performance through Explicit Padding Encoding [40.39759037668144]
畳み込みニューラルネットワーク(CNN)では、パディングは層全体の空間的次元を保存する上で重要な役割を果たす。
従来のパディング技術は、実際の画像内容とパッド領域を明確に区別するものではない。
本研究では,パディングステータスを付加的な入力チャネルとしてエンコードする新しいパディング手法PadChannelを提案する。
論文 参考訳(メタデータ) (2023-11-13T07:44:56Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Irrelevant Pixels are Everywhere: Find and Exclude Them for More
Efficient Computer Vision [2.982495984260401]
CNNは、入力画像のすべてのピクセル上の多くの特徴を無差別に計算するため、計算集約的である。
計算とエネルギーを節約するために,CNNを関連するピクセルのみで動作するように修正する。
組込み装置では精度の低下は見られず, 推論遅延, エネルギー消費, 乗算加算数はすべて約45%削減される。
論文 参考訳(メタデータ) (2022-07-21T20:22:15Z) - Early-exit deep neural networks for distorted images: providing an
efficient edge offloading [69.43216268165402]
ディープニューラルネットワーク(DNN)のエッジオフロードは、入力の複雑さに適応することができる。
画像歪みに対する対策として,特定の歪みタイプを訓練した専門的側枝を導入する。
このアプローチはエッジ上の推定精度を高め、オフロードの決定を改善する。
論文 参考訳(メタデータ) (2021-08-20T19:52:55Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z) - AdjointBackMap: Reconstructing Effective Decision Hypersurfaces from CNN
Layers Using Adjoint Operators [10.8349819399336]
畳み込みニューラルネットワーク(CNN)の内部動作を説明する手法を提案する。
CNNユニットの判定面が入力にほとんど条件付けられていることが分かり、このことが、CNNを効果的に騙すことができる理由を説明できる。
論文 参考訳(メタデータ) (2020-12-16T15:35:47Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Region Growing with Convolutional Neural Networks for Biomedical Image
Segmentation [1.5469452301122177]
本稿では,各座標方向の予測マスク領域を反復的に成長させることにより,畳み込みニューラルネットワーク(CNN)を用いてセグメンテーションを行う手法を提案する。
我々は、CNNの確率スコアのしきい値を用いて、その領域にピクセルが追加され、その領域に新しいピクセルが加わらないまで繰り返し続けるかどうかを判定する。
本手法は,少量のトレーニングデータを活用するとともに,計算効率を保ちながら,高いセグメンテーション精度を達成し,生物学的に現実的な形態的特徴を維持できる。
論文 参考訳(メタデータ) (2020-09-23T17:53:00Z) - Shape Defense Against Adversarial Attacks [47.64219291655723]
人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
論文 参考訳(メタデータ) (2020-08-31T03:23:59Z) - Reproduction of Lateral Inhibition-Inspired Convolutional Neural Network
for Visual Attention and Saliency Detection [0.0]
ニューラルネットワークは 自然画像の例と 効果的に混同されます
対象の分類は,対象が位置する背景画素の影響を強く受けているのではないかと思う。
この目的のために,licNNネットワークが作成した有能度マップを用いて,上記の問題を解析する。
論文 参考訳(メタデータ) (2020-05-05T13:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。