論文の概要: DeepRare: Generic Unsupervised Visual Attention Models
- arxiv url: http://arxiv.org/abs/2109.11439v1
- Date: Thu, 23 Sep 2021 15:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 16:57:38.950131
- Title: DeepRare: Generic Unsupervised Visual Attention Models
- Title(参考訳): deeprare: 一般的な教師なし視覚注意モデル
- Authors: Phutphalla Kong, Matei Mancas, Bernard Gosselin, Kimtho Po
- Abstract要約: ディープラーニング(DNN)は、主要なベンチマークデータセットのアルゴリズム効率を大幅に改善した。
DNNベースのモデルは直感に反するものであり、その発生確率が低いため、驚きや異常なデータは学習が困難である。
本稿では,DNNの機能抽出と特徴工学アルゴリズムの汎用性を利用したDeepRare 2021 (DR21) と呼ばれる新しい視覚的アテンションモデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human visual system is modeled in engineering field providing
feature-engineered methods which detect contrasted/surprising/unusual data into
images. This data is "interesting" for humans and leads to numerous
applications. Deep learning (DNNs) drastically improved the algorithms
efficiency on the main benchmark datasets. However, DNN-based models are
counter-intuitive: surprising or unusual data is by definition difficult to
learn because of its low occurrence probability. In reality, DNN-based models
mainly learn top-down features such as faces, text, people, or animals which
usually attract human attention, but they have low efficiency in extracting
surprising or unusual data in the images. In this paper, we propose a new
visual attention model called DeepRare2021 (DR21) which uses the power of DNNs
feature extraction and the genericity of feature-engineered algorithms. This
algorithm is an evolution of a previous version called DeepRare2019 (DR19)
based on a common framework. DR21 1) does not need any training and uses the
default ImageNet training, 2) is fast even on CPU, 3) is tested on four very
different eye-tracking datasets showing that the DR21 is generic and is always
in the within the top models on all datasets and metrics while no other model
exhibits such a regularity and genericity. Finally DR21 4) is tested with
several network architectures such as VGG16 (V16), VGG19 (V19) and MobileNetV2
(MN2) and 5) it provides explanation and transparency on which parts of the
image are the most surprising at different levels despite the use of a
DNN-based feature extractor. DeepRare2021 code can be found at
https://github.com/numediart/VisualAttention-RareFamil}.
- Abstract(参考訳): 人間の視覚システムは、画像へのコントラスト付き/サプライズ/unusualなデータを検出する特徴工学的手法を提供する工学領域でモデル化されている。
このデータは人間にとって「興味深い」ものであり、多くの応用をもたらす。
ディープラーニング(DNN)は、主要なベンチマークデータセットのアルゴリズム効率を大幅に改善した。
しかし、dnnベースのモデルは直観に反する:驚きまたは異常なデータは、その発生確率が低いため、定義上は学習が困難である。
実際、dnnベースのモデルは、主に人間の注意を引く顔、テキスト、人、動物といったトップダウンの特徴を学習するが、画像内の驚くべきデータや異常なデータを抽出する効率は低い。
本稿では,DNNの機能抽出と特徴工学アルゴリズムの汎用性を利用したDeepRare2021 (DR21) と呼ばれる新しい視覚的注意モデルを提案する。
このアルゴリズムは、共通のフレームワークに基づいたDeepRare2019(DR19)と呼ばれる以前のバージョンの進化である。
DR21
1) トレーニングは不要で、デフォルトのImageNetトレーニングを使用する。
2)cpu上でも高速である。
3) は4つの異なる視線追跡データセットでテストされ、dr21がジェネリックであり、常にすべてのデータセットとメトリクスの上位モデル内にあることを示している。
ついに dr21
4) vgg16 (v16)、vgg19 (v19)、mobilenetv2 (mn2) などのいくつかのネットワークアーキテクチャでテストされ、dnnベースの特徴抽出器を使用しても、画像のどの部分が最も驚くべきのかの説明と透明性を提供する。
DeepRare2021コードはhttps://github.com/numediart/VisualAttention-RareFamil}で見ることができる。
関連論文リスト
- Diffusing to the Top: Boost Graph Neural Networks with Minimal Hyperparameter Tuning [33.948899558876604]
グラフ条件付き潜在拡散フレームワーク(GNN-Diff)を導入し,高性能なGNNを生成する。
提案手法は,小,大,長距離グラフ上のノード分類とリンク予測という4つのグラフタスクを対象とした166の実験を通じて検証する。
論文 参考訳(メタデータ) (2024-10-08T05:27:34Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Depth Anything: Unleashing the Power of Large-Scale Unlabeled Data [87.61900472933523]
この研究は、ロバストな単分子深度推定のための非常に実用的な解であるDepth Anythingを提示する。
データエンジンを設計し、大規模な未ラベルデータの収集と注釈付けを自動的に行うことにより、データセットをスケールアップします。
6つのパブリックデータセットとランダムにキャプチャされた写真を含む、ゼロショットの機能を広範囲に評価する。
論文 参考訳(メタデータ) (2024-01-19T18:59:52Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Self-supervised Graph Neural Networks without explicit negative sampling [0.36804038214708557]
本論文では,明示的な対比項に頼らずに,新しい対比自己監視グラフニューラルネットワーク(GNN)であるSelfGNNを提案する。
性能を犠牲にすることなく、暗黙の対照的な項を導入するバッチ正規化を利用する。
公開されている7つの実世界のデータに対する実証的な評価は、SelfGNNは強力であり、SOTAが管理するGNNに匹敵する性能をもたらすことを示している。
論文 参考訳(メタデータ) (2021-03-27T18:20:37Z) - Deconvolution-and-convolution Networks [9.513595116909197]
2D畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンタスクの事実上の標準となっている。
最近の調査結果はCNNが1Dパターン認識の最良の選択肢ではないことを示唆している。
深層逆畳み込み畳み込みネットワークを学習し,新しい1次元データ処理アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-22T14:32:09Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Rethinking Recurrent Neural Networks and Other Improvements for Image
Classification [1.5990720051907859]
画像認識モデルの設計において,RNNを付加層として統合することを提案する。
また、複数のモデルを用いて専門家による予測を生成するエンド・ツー・エンドのマルチモデルアンサンブルも開発している。
私たちのモデルは、Surreyデータセットに新しいレコードを設定します。
論文 参考訳(メタデータ) (2020-07-30T00:40:50Z) - Visual Attention: Deep Rare Features [0.0]
本稿では,DeepRare 2019という,Deep Learningのパワーと特徴工学アルゴリズムの汎用性を利用したモデルを提案する。
DR1)はトレーニングを一切必要とせず、2) CPU上のイメージ1枚につき1秒未満で、3) 非常に異なる3つのアイトラッキングデータセットに対するテストでは、DRはジェネリックで、すべてのデータセットとメトリクスのトップ3モデルに常に存在することが示されています。
論文 参考訳(メタデータ) (2020-05-25T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。