論文の概要: How Do ConvNets Understand Image Intensity?
- arxiv url: http://arxiv.org/abs/2306.00360v2
- Date: Sat, 22 Jul 2023 23:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 21:07:43.904816
- Title: How Do ConvNets Understand Image Intensity?
- Title(参考訳): ConvNetsは画像の強度をどう理解するか?
- Authors: Jackson Kaunismaa, and Michael Guerzhoy
- Abstract要約: 我々は,ConvNetが可視化を用いた画像強度情報に依存していることを示す。
ConvNetは通常、画像の分類にエッジ/シェープ情報を利用する。
- 参考スコア(独自算出の注目度): 2.134451343223018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (ConvNets) usually rely on edge/shape
information to classify images. Visualization methods developed over the last
decade confirm that ConvNets rely on edge information. We investigate
situations where the ConvNet needs to rely on image intensity in addition to
shape. We show that the ConvNet relies on image intensity information using
visualization.
- Abstract(参考訳): 畳み込みニューラルネットワーク(convnets)は通常、画像の分類にエッジ/シェイプ情報に依存する。
過去10年間で開発された可視化手法は、ConvNetsがエッジ情報に依存していることを確認する。
本研究では,ConvNetが形状に加え,画像強度に頼らなければならない状況について検討する。
我々は,ConvNetが画像の強度情報に依存していることを示す。
関連論文リスト
- Are Large Kernels Better Teachers than Transformers for ConvNets? [82.4742785108714]
本稿では,最近出現した大規模カーネル畳み込みニューラルネットワーク(ConvNets)の新たな魅力を明らかにする。
論文 参考訳(メタデータ) (2023-05-30T21:05:23Z) - ImageNetVC: Zero- and Few-Shot Visual Commonsense Evaluation on 1000
ImageNet Categories [50.51976425891379]
大規模言語モデル (LLM) は汎用インタフェースとして機能しており、包括的な視覚的知識の需要が著しく高まっている。
ゼロ画像と少数画像のコモンセンス評価に特化して設計されたデータセットであるImageNetVCを提案する。
我々は、一元的LLMと視覚的に拡張されたLLMの両方の基本的な視覚的常識知識をベンチマークする。
論文 参考訳(メタデータ) (2023-05-24T11:14:31Z) - Conv2Former: A Simple Transformer-Style ConvNet for Visual Recognition [158.15602882426379]
本稿では,視覚認識のための最先端の手法を設計しようとはしないが,空間的特徴を符号化するために畳み込みを利用するより効率的な方法について検討する。
近年の畳み込みニューラルネットワーク(ConvNet)と視覚変換器(Vision Transformers)の設計原理を比較することにより,畳み込み変調操作を活用することで自己意識をシンプルにすることを提案する。
論文 参考訳(メタデータ) (2022-11-22T01:39:45Z) - CNeRV: Content-adaptive Neural Representation for Visual Data [54.99373641890767]
本稿では、自動エンコーダの一般化性と暗黙的表現の単純さとコンパクトさを組み合わせた、コンテンツ適応型埋め込み(CNeRV)によるニューラルビジュアル表現を提案する。
我々は、トレーニング中にスキップされたフレーム(見えない画像)をはるかに上回りながら、トレーニング中に見られるフレームの再構築作業において、最先端の暗黙のニューラル表現であるNERVのパフォーマンスを一致させる。
同じ遅延コード長と類似のモデルサイズで、CNeRVは、見えていない画像と見えない画像の両方の再構成においてオートエンコーダより優れている。
論文 参考訳(メタデータ) (2022-11-18T18:35:43Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - PSO-Convolutional Neural Networks with Heterogeneous Learning Rate [4.243356707599486]
畳み込みニューラルネットワーク(ConvNetsまたはCNNs)は、コンピュータビジョンと関連する分野の領域に率直に展開されている。
本稿では,新しい粒子群最適化(PSO)によるConvNetsのトレーニングを提案する。
このような枠組みでは、各ConvNetの重みのベクトルは位相空間の粒子として介在し、PSOはトレーニング性能と一般化を促進するためにグラディエント・ディクセント(SGD)と動的に作用する。
論文 参考訳(メタデータ) (2022-05-20T22:47:19Z) - ConTNet: Why not use convolution and transformer at the same time? [28.343371000297747]
トランスとConvNetアーキテクチャを組み合わせて、大きなレセプティブフィールドを提供するConTNetを提案します。
画像分類と下流タスクにおけるその優位性と有効性を提示する。
ConTNetがCVタスクの有用なバックボーンとなり、モデル設計に新しいアイデアをもたらすことを期待しています。
論文 参考訳(メタデータ) (2021-04-27T22:29:55Z) - Is it Enough to Optimize CNN Architectures on ImageNet? [0.0]
我々は、ImageNetと他の8つの画像分類データセットで500のCNNアーキテクチャをトレーニングする。
アーキテクチャとパフォーマンスの関係はデータセットによって大きく異なる。
2つのデータセット固有のパフォーマンス指標を識別した:層間の累積幅とネットワーク全体の深さである。
論文 参考訳(メタデータ) (2021-03-16T14:42:01Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - Image Transformation Network for Privacy-Preserving Deep Neural Networks
and Its Security Evaluation [17.134566958534634]
プライバシー保護DNNのための画像生成のための変換ネットワークを提案する。
提案するネットワークは,視覚情報を強く保護するだけでなく,画像を用いた画像分類精度の維持にも有効である。
論文 参考訳(メタデータ) (2020-08-07T12:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。