論文の概要: Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects
- arxiv url: http://arxiv.org/abs/2202.03695v1
- Date: Tue, 8 Feb 2022 07:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 01:12:40.635183
- Title: Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects
- Title(参考訳): 新しい物体との深部活動特徴識別性に関するネットワーク比較
- Authors: Michael Karnes, Alper Yilmaz
- Abstract要約: 最先端のコンピュータビジョンアルゴリズムは、Deep Neural Networks(DNN)を特徴抽出に取り入れ、Deep Convolutional Activation Features(DeCAF)を作成する。
本研究では、6つの主要な視覚認識DNNアーキテクチャのDeCAF空間に符号化された新しい物体の視覚的外観の一般的な識別可能性について分析する。
- 参考スコア(独自算出の注目度): 0.5076419064097732
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Feature extraction has always been a critical component of the computer
vision field. More recently, state-of-the-art computer visions algorithms have
incorporated Deep Neural Networks (DNN) in feature extracting roles, creating
Deep Convolutional Activation Features (DeCAF). The transferability of DNN
knowledge domains has enabled the wide use of pretrained DNN feature extraction
for applications with novel object classes, especially those with limited
training data. This study analyzes the general discriminability of novel object
visual appearances encoded into the DeCAF space of six of the leading visual
recognition DNN architectures. The results of this study characterize the
Mahalanobis distances and cosine similarities between DeCAF object manifolds
across two visual object tracking benchmark data sets. The backgrounds
surrounding each object are also included as an object classes in the manifold
analysis, providing a wider range of novel classes. This study found that
different network architectures led to different network feature focuses that
must to be considered in the network selection process. These results are
generated from the VOT2015 and UAV123 benchmark data sets; however, the
proposed methods can be applied to efficiently compare estimated network
performance characteristics for any labeled visual data set.
- Abstract(参考訳): 特徴抽出はコンピュータビジョン分野において常に重要な要素である。
最近では、最先端のコンピュータビジョンアルゴリズムがDeep Neural Networks(DNN)を機能抽出ロールに組み込んで、Deep Convolutional Activation Features(DeCAF)を作成している。
DNN知識ドメインの転送可能性により、新しいオブジェクトクラス、特に限られたトレーニングデータを持つアプリケーションにおいて、事前訓練済みのDNN特徴抽出が広く利用できるようになった。
本研究では,視覚認識dnnアーキテクチャの先駆的6つのdecaf空間に符号化された新しい物体の視覚的外観の一般識別性を分析する。
本研究は,2つの視覚オブジェクト追跡ベンチマークデータセットを横断するデカフ対象多様体間のマハラノビス距離とコサイン類似性を特徴付ける。
各オブジェクトを取り巻く背景は、多様体解析においてオブジェクトクラスとして含まれ、より広い範囲の新しいクラスを提供する。
本研究では、異なるネットワークアーキテクチャがネットワーク選択プロセスにおいて考慮すべき異なるネットワーク機能に繋がることを示した。
これらの結果は、VOT2015とUAV123ベンチマークデータセットから生成されるが、提案手法は、ラベル付きビジュアルデータセットのネットワーク性能特性を効率的に比較するために有効である。
関連論文リスト
- Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Deep Learning Approaches for Human Action Recognition in Video Data [0.8080830346931087]
本研究は、この課題に対処するために、様々なディープラーニングモデルの詳細な分析を行う。
我々は、畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、Two-Stream ConvNetsに焦点を当てる。
本研究の結果は,頑健な人間の行動認識を実現するための複合モデルの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-03-11T15:31:25Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - ASU-CNN: An Efficient Deep Architecture for Image Classification and
Feature Visualizations [0.0]
活性化関数はディープニューラルネットワークの能力を決定する上で決定的な役割を果たす。
本稿では,ASU-CNNと呼ばれる畳み込みニューラルネットワークモデルを提案する。
ネットワークは、CIFAR-10の分類のためのトレーニングデータとテストデータの両方において有望な結果を得た。
論文 参考訳(メタデータ) (2023-05-28T16:52:25Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - Scene Understanding for Autonomous Driving [0.0]
Detectron2で提示されたRetinaNet, Faster R-CNN, Mask R-CNNの異なる構成の挙動を検討する。
関心のあるデータセット上でこれらのモデルを微調整した後、パフォーマンスの大幅な改善を観察します。
文脈外のデータセットを用いて異常な状況下で推論を行い、興味深い結果を示す。
論文 参考訳(メタデータ) (2021-05-11T09:50:05Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Learning Granularity-Aware Convolutional Neural Network for Fine-Grained
Visual Classification [0.0]
識別的特徴を段階的に探索するGranularity-Aware Congrainedal Neural Network (GA-CNN)を提案する。
GA-CNNはバウンディングボックス/パーツアノテーションを必要とせず、エンドツーエンドでトレーニングできます。
このアプローチは3つのベンチマークデータセットで最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2021-03-04T02:18:07Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。