論文の概要: Modelling response to trypophobia trigger using intermediate layers of
ImageNet networks
- arxiv url: http://arxiv.org/abs/2002.08490v2
- Date: Wed, 26 Feb 2020 01:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:10:29.127549
- Title: Modelling response to trypophobia trigger using intermediate layers of
ImageNet networks
- Title(参考訳): ImageNetネットワークの中間層を用いたトライポフォビアトリガ応答のモデル化
- Authors: Piotr Wo\'znicki, Micha{\l} Ku\'zba, Piotr Migda{\l}
- Abstract要約: VGGやResNetのような標準アーキテクチャはトライポフォビアパターンを認識することができることを示す。
我々はまた、この現象の性質を分析する実験も行います。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we approach the problem of detecting trypophobia triggers
using Convolutional neural networks. We show that standard architectures such
as VGG or ResNet are capable of recognizing trypophobia patterns. We also
conduct experiments to analyze the nature of this phenomenon. To do that, we
dissect the network decreasing the number of its layers and parameters. We
prove, that even significantly reduced networks have accuracy above 91% and
focus their attention on the trypophobia patterns as presented on the visual
explanations.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワークを用いてトリポフォビアトリガーを検出する問題にアプローチする。
VGGやResNetのような標準アーキテクチャはトライポフォビアパターンを認識することができることを示す。
この現象の性質を分析する実験も行っています。
そのために、ネットワークが層数やパラメータ数を減らしているのを識別する。
その結果,ネットワークの精度は91%以上低下し,視覚的な説明に反映されたトリポポビアパターンに注目していることがわかった。
関連論文リスト
- Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Saliency map using features derived from spiking neural networks of
primate visual cortex [0.0]
生体視覚システムにインスパイアされた,デジタル画像の鮮度マップ作成のためのフレームワークを提案する。
これらの領域間の接続性をモデル化するために、スパイクニューラルネットワーク(SNN)シミュレータであるCARLsimライブラリを使用する。
CARLsimが生成したスパイクは抽出された特徴として機能し、私たちの唾液検出アルゴリズムに入力します。
論文 参考訳(メタデータ) (2022-05-02T18:52:39Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Adversarial Robustness in Deep Learning: Attacks on Fragile Neurons [0.6899744489931016]
第1畳み込み層の結節投棄を用いて, 深層学習アーキテクチャの脆弱で頑健なニューロンを同定した。
これらのニューロンは,ネットワーク上の敵攻撃の分布と相関する。
論文 参考訳(メタデータ) (2022-01-31T14:34:07Z) - Towards robust vision by multi-task learning on monkey visual cortex [6.9014416935919565]
我々は,深部ネットワークを併用して画像分類を行い,マカク一次視覚野(V1)の神経活動を予測する訓練を行った。
その結果,モンキーV1データによるコトレーニングは,トレーニング中に歪みがないにもかかわらず,ロバスト性の向上につながることがわかった。
また、ネットワークの堅牢性が向上するにつれて、ネットワークの表現がより脳に似たものになることを示した。
論文 参考訳(メタデータ) (2021-07-29T21:55:48Z) - Deep neural network loses attention to adversarial images [11.650381752104296]
敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
Pixelアタックの場合、乱れたピクセルがネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2021-06-10T11:06:17Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - The FaceChannel: A Fast & Furious Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
顔の表情の自動認識(FER)の最先端モデルは、非常に深いニューラルネットワークに基づいており、訓練には効果的だがかなり高価である。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
我々は、私たちのモデルがFERの現在の最先端技術に匹敵するパフォーマンスを達成する方法を実証する。
論文 参考訳(メタデータ) (2020-09-15T09:25:37Z) - The FaceChannel: A Light-weight Deep Neural Network for Facial
Expression Recognition [71.24825724518847]
FER自動化のための現在の最先端モデルは、訓練が難しい非常に深いニューラルネットワークに基づいている。
私たちは、一般的なディープニューラルネットワークよりもはるかに少ないパラメータを持つ軽量ニューラルネットワークであるFaceChannelを形式化します。
私たちは、FaceChannelが、FERの現在の最先端技術と比較して、同等の、たとえそうでなくても、パフォーマンスを実現する方法を示します。
論文 参考訳(メタデータ) (2020-04-17T12:03:14Z) - Explaining Away Attacks Against Neural Networks [3.658164271285286]
画像ベースニューラルネットワークに対する敵攻撃を識別する問題について検討する。
そこで本研究では, クリーンデータと逆データに対するモデル予測における説明の相違について検討した。
本稿では,モデルによる説明に基づいて,与えられた入力が逆方向かどうかを識別できるフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-06T15:32:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。