論文の概要: TorchPRISM: Principal Image Sections Mapping, a novel method for
Convolutional Neural Network features visualization
- arxiv url: http://arxiv.org/abs/2101.11266v1
- Date: Wed, 27 Jan 2021 08:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 07:28:00.256352
- Title: TorchPRISM: Principal Image Sections Mapping, a novel method for
Convolutional Neural Network features visualization
- Title(参考訳): TorchPRISM: Convolutional Neural Networkの可視化のための新しい手法であるPrincipal Image Sections Mapping
- Authors: Tomasz Szandala
- Abstract要約: PyTorch専用のプリンシパルイメージセクションマッピング - PRISMを導入するが、他のディープラーニングフレームワークに簡単に移植できる。
PRISMは、所定の畳み込みニューラルネットワークによって認識される最も重要な特徴を視覚化するために、主成分分析に依存している。
同じバッチで処理された画像間の比較セット機能を表示することができるため、PRISMはExplanation by Exampleとよく同期する手法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we introduce a tool called Principal Image Sections Mapping -
PRISM, dedicated for PyTorch, but can be easily ported to other deep learning
frameworks. Presented software relies on Principal Component Analysis to
visualize the most significant features recognized by a given Convolutional
Neural Network. Moreover, it allows to display comparative set features between
images processed in the same batch, therefore PRISM can be a method well
synerging with technique Explanation by Example.
- Abstract(参考訳): 本稿では、PyTorch専用のプリンシパルイメージセクションマッピングPRISMと呼ばれるツールを紹介しますが、他のディープラーニングフレームワークに簡単に移植できます。
提示されたソフトウェアは、与えられた畳み込みニューラルネットワークによって認識される最も重要な特徴を視覚化するために主成分分析に依存している。
さらに、同じバッチで処理された画像間の比較セット機能を表示することができるため、PRISMは例による技術説明との相乗効果が高い方法です。
関連論文リスト
- Meta-Exploiting Frequency Prior for Cross-Domain Few-Shot Learning [86.99944014645322]
クロスドメインなFew-Shot学習のための新しいフレームワーク,Meta-Exploiting Frequency Priorを導入する。
各クエリ画像を高周波および低周波成分に分解し,特徴埋め込みネットワークに並列に組み込む。
本フレームワークは、複数のドメイン間数ショット学習ベンチマークにおいて、最先端の新たな結果を確立する。
論文 参考訳(メタデータ) (2024-11-03T04:02:35Z) - StrokeNUWA: Tokenizing Strokes for Vector Graphic Synthesis [112.25071764647683]
StrokeNUWAはベクターグラフィックスにおけるより良い視覚表現'ストロークトークン'を探求する先駆的な研究である。
ストロークトークンを備えたStrokeNUWAは、従来のLCMベースの最適化ベースのメソッドを大幅に上回ることができる。
StrokeNUWAは、SVGコード圧縮比が6.9%の従来の手法よりも94倍のスピードアップを達成している。
論文 参考訳(メタデータ) (2024-01-30T15:20:26Z) - Unlocking Feature Visualization for Deeper Networks with MAgnitude
Constrained Optimization [17.93878159391899]
解釈可能な画像を生成するためのシンプルなアプローチであるMACOについて述べる。
我々のアプローチは、質的にも定量的にも、はるかに優れた結果をもたらし、大きな最先端のニューラルネットワークのための効率的かつ解釈可能な特徴視覚化を解き放つ。
特徴可視化手法の比較のための新しいベンチマークで本手法を検証し,画像Netデータセットの全クラスを対象とした可視化結果をリリースする。
論文 参考訳(メタデータ) (2023-06-11T23:33:59Z) - Multi-modal reward for visual relationships-based image captioning [4.354364351426983]
本稿では、画像のシーングラフから抽出した視覚的関係情報を画像の空間的特徴マップに融合させることにより、画像キャプションのためのディープニューラルネットワークアーキテクチャを提案する。
次に、共通埋め込み空間における言語と視覚の類似性の組み合わせを用いて、提案するネットワークの深層強化学習のためにマルチモーダル報酬関数を導入する。
論文 参考訳(メタデータ) (2023-03-19T20:52:44Z) - Series Photo Selection via Multi-view Graph Learning [52.33318426088579]
連続写真選択(SPS)は画像美学の質評価の重要な分野である。
我々は,マルチビュー特徴間の関係を構築するために,グラフニューラルネットワークを利用する。
ほぼ同一の一連の写真の中から最適なものを選択するために、シアムズネットワークが提案されている。
論文 参考訳(メタデータ) (2022-03-18T04:23:25Z) - Semantic-Aware Generation for Self-Supervised Visual Representation
Learning [116.5814634936371]
セマンティック・アウェア・ジェネレーション(SaGe)は、生成した画像に保存される詳細よりも、よりリッチなセマンティクスを促進する。
SaGeは、ターゲットネットワークをビュー特有の特徴で補完することで、集中的なデータ拡張によって引き起こされるセマンティックな劣化を軽減する。
我々は、ImageNet-1K上でSaGeを実行し、近接検定、線形分類、微視的画像認識を含む5つの下流タスクで事前訓練されたモデルを評価する。
論文 参考訳(メタデータ) (2021-11-25T16:46:13Z) - VisGraphNet: a complex network interpretation of convolutional neural
features [6.50413414010073]
ニューラルネットワークの特徴マップをモデル化するための可視性グラフの提案と検討を行う。
この研究は、元のデータよりもこれらのグラフによって提供される別の視点によって動機付けられている。
論文 参考訳(メタデータ) (2021-08-27T20:21:04Z) - Exploiting the relationship between visual and textual features in
social networks for image classification with zero-shot deep learning [0.0]
本稿では,CLIPニューラルネットワークアーキテクチャの伝達可能な学習能力に基づく分類器アンサンブルを提案する。
本研究は,Placesデータセットのラベルによる画像分類タスクに基づいて,視覚的部分のみを考慮した実験である。
画像に関連付けられたテキストを考えることは、目標に応じて精度を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-07-08T10:54:59Z) - Differentiable Patch Selection for Image Recognition [37.11810982945019]
そこで我々は,高解像度画像を処理するために,入力の最も関連性の高い部分を選択可能なTop-K演算子を提案する。
オブジェクト/部分境界ボックスアノテーションを使わずに,トラフィックサイン認識,パッチ間関係推論,微粒化認識の結果を示す。
論文 参考訳(メタデータ) (2021-04-07T11:15:51Z) - Probabilistic Graph Attention Network with Conditional Kernels for
Pixel-Wise Prediction [158.88345945211185]
本稿では,画素レベルの予測を基本的側面,すなわち,技術の現状を推し進める新たなアプローチを提案する。
構造化されたマルチスケール機能学習と融合。
本論文では,マルチスケール表現を原理的に学習・融合するための新しいアテンテンションゲート条件ランダムフィールド(AG-CRFs)モデルに基づく確率的グラフアテンションネットワーク構造を提案する。
論文 参考訳(メタデータ) (2021-01-08T04:14:29Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。