論文の概要: A Methodology to Identify Cognition Gaps in Visual Recognition
Applications Based on Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2110.02080v1
- Date: Tue, 5 Oct 2021 14:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:20:21.849445
- Title: A Methodology to Identify Cognition Gaps in Visual Recognition
Applications Based on Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた視覚認識における認識ギャップの同定手法
- Authors: Hannes Vietz, Tristan Rauch, Andreas L\"ocklin, Nasser Jazdi and
Michael Weyrich
- Abstract要約: 本稿では,画像拡張技術を用いて最悪の画像を生成する手法を提案する。
このような画像上でのCNNの認知能力が弱く、増強技術が無害であるとされる場合、認識の潜在的なギャップが発見されている。
提示された最悪の画像生成装置は、最も困難な画像を効率よく識別するために、逆探索手法を用いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Developing consistently well performing visual recognition applications based
on convolutional neural networks, e.g. for autonomous driving, is very
challenging. One of the obstacles during the development is the opaqueness of
their cognitive behaviour. A considerable amount of literature has been
published which describes irrational behaviour of trained CNNs showcasing gaps
in their cognition. In this paper, a methodology is presented that creates
worstcase images using image augmentation techniques. If the CNN's cognitive
performance on such images is weak while the augmentation techniques are
supposedly harmless, a potential gap in the cognition has been found. The
presented worst-case image generator is using adversarial search approaches to
efficiently identify the most challenging image. This is evaluated with the
well-known AlexNet CNN using images depicting a typical driving scenario.
- Abstract(参考訳): 畳み込みニューラルネットワーク(例えば、自律運転)に基づく視覚認識アプリケーションを一貫して開発することは、非常に困難である。
発達中の障害の1つは、認知行動の不透明さである。
訓練されたCNNの非合理な行動が認識のギャップを示すという、かなりの量の文献が出版されている。
本稿では,画像拡張技術を用いて最悪の画像を生成する手法を提案する。
このような画像上でのCNNの認知能力が弱く、増強技術が無害であるとされる場合、認識の潜在的なギャップが発見されている。
提示された最悪の画像生成装置は、最も困難な画像を効率よく識別するために、逆探索手法を用いている。
これは、典型的な運転シナリオを描いた画像を用いて、よく知られたAlexNet CNNで評価される。
関連論文リスト
- Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Alleviating Catastrophic Forgetting in Facial Expression Recognition with Emotion-Centered Models [49.3179290313959]
感情中心型生成的リプレイ (ECgr) は, 生成的対向ネットワークから合成画像を統合することで, この課題に対処する。
ECgrは、生成された画像の忠実性を保証するために品質保証アルゴリズムを組み込んでいる。
4つの多様な表情データセットに対する実験結果から,擬似リハーサル法により生成されたイメージを組み込むことで,ターゲットとするデータセットとソースデータセットのトレーニングが促進されることが示された。
論文 参考訳(メタデータ) (2024-04-18T15:28:34Z) - DiG-IN: Diffusion Guidance for Investigating Networks -- Uncovering Classifier Differences Neuron Visualisations and Visual Counterfactual Explanations [35.458709912618176]
ディープラーニングは、ImageNetのような複雑な画像分類タスク、予期せぬ障害モード、例えばスプリアス機能などに大きな進歩をもたらした。
安全クリティカルなタスクでは、その決定のブラックボックスの性質は問題であり、説明や少なくとも意思決定を行う方法が緊急に必要である。
本稿では,これらの問題に対して,ガイド画像生成のためのフレームワークを用いて分類器由来の目的を最適化した画像を生成する。
論文 参考訳(メタデータ) (2023-11-29T17:35:29Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Iris super-resolution using CNNs: is photo-realism important to iris
recognition? [67.42500312968455]
特に畳み込みニューラルネットワーク(CNN)を用いた単一画像超解像技術が出現している
本研究では, 虹彩認識のためのCNNを用いて, 単一画像の超解像を探索する。
彼らは、近赤外線虹彩画像の1.872のデータベースと携帯電話画像データベースのアプローチを検証する。
論文 参考訳(メタデータ) (2022-10-24T11:19:18Z) - Hybrid Optimized Deep Convolution Neural Network based Learning Model
for Object Detection [0.0]
物体の識別はコンピュータビジョンにおける最も基本的で難しい問題の1つである。
近年,ディープラーニングに基づく物体検出技術が大衆の関心を集めている。
本研究では,自律型物体検出システムを構築するために,独自のディープラーニング分類手法を用いる。
提案するフレームワークは検出精度0.9864であり、現在の技術よりも高い。
論文 参考訳(メタデータ) (2022-03-02T04:39:37Z) - Deep Image Deblurring: A Survey [165.32391279761006]
低レベルのコンピュータビジョンにおいて、デブロアリングは古典的な問題であり、ぼやけた入力画像からシャープなイメージを復元することを目的としている。
近年のディープラーニングの進歩は、この問題の解決に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2022-01-26T01:31:30Z) - Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images [0.7734726150561086]
条件変分オートエンコーダ(CVAE)は、知覚不能な画像摂動を検出するのに驚くほど優れている。
画像分類ネットワーク上での敵攻撃を検出するために,CVAEを効果的に利用する方法を示す。
論文 参考訳(メタデータ) (2021-11-28T20:36:27Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。