論文の概要: A New Lightweight Hybrid Graph Convolutional Neural Network -- CNN Scheme for Scene Classification using Object Detection Inference
- arxiv url: http://arxiv.org/abs/2407.14658v1
- Date: Fri, 19 Jul 2024 20:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 21:33:49.311253
- Title: A New Lightweight Hybrid Graph Convolutional Neural Network -- CNN Scheme for Scene Classification using Object Detection Inference
- Title(参考訳): 新しい軽量ハイブリッドグラフ畳み込みニューラルネットワーク -- オブジェクト検出推論を用いたシーン分類のためのCNNスキーム
- Authors: Ayman Beghdadi, Azeddine Beghdadi, Mohib Ullah, Faouzi Alaya Cheikh, Malik Mallem,
- Abstract要約: オブジェクト検出モデルのアドオンとして,最初のハイブリッドグラフ畳み込みニューラルネットワーク(LH-GCNN)-CNNフレームワークを提案する。
提案手法は,CNNオブジェクト検出モデルの出力を用いて,コヒーレントGCNNを生成することにより,観測シーンのタイプを予測する。
自然シーンに適用した本手法は,COCO由来のデータセットにおけるシーン分類の効率を90%以上向上させる。
- 参考スコア(独自算出の注目度): 7.493475754620183
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scene understanding plays an important role in several high-level computer vision applications, such as autonomous vehicles, intelligent video surveillance, or robotics. However, too few solutions have been proposed for indoor/outdoor scene classification to ensure scene context adaptability for computer vision frameworks. We propose the first Lightweight Hybrid Graph Convolutional Neural Network (LH-GCNN)-CNN framework as an add-on to object detection models. The proposed approach uses the output of the CNN object detection model to predict the observed scene type by generating a coherent GCNN representing the semantic and geometric content of the observed scene. This new method, applied to natural scenes, achieves an efficiency of over 90\% for scene classification in a COCO-derived dataset containing a large number of different scenes, while requiring fewer parameters than traditional CNN methods. For the benefit of the scientific community, we will make the source code publicly available: https://github.com/Aymanbegh/Hybrid-GCNN-CNN.
- Abstract(参考訳): シーン理解は、自動運転車、インテリジェントなビデオ監視、ロボット工学など、いくつかのハイレベルコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
しかし、コンピュータビジョンフレームワークのシーンコンテキスト適応性を確保するために、屋内/屋外シーン分類のためのソリューションがあまりにも少なすぎる。
オブジェクト検出モデルのアドオンとして,最初の軽量ハイブリッドグラフ畳み込みニューラルネットワーク(LH-GCNN)-CNNフレームワークを提案する。
提案手法では,CNNオブジェクト検出モデルの出力を用いて,観測シーンの意味的および幾何学的内容を表すコヒーレントGCNNを生成する。
自然シーンに適用した本手法は,従来のCNN手法よりも少ないパラメータを必要としながら,多数の異なるシーンを含むCOCO由来のデータセットにおいて,シーン分類の効率を90%以上向上させる。
科学コミュニティの利益のために、ソースコードを公開します。 https://github.com/Aymanbegh/Hybrid-GCNN-CNN。
関連論文リスト
- D-NPC: Dynamic Neural Point Clouds for Non-Rigid View Synthesis from Monocular Video [53.83936023443193]
本稿では,スマートフォンのキャプチャなどのモノクロ映像から動的に新しいビューを合成する手法を導入することにより,この分野に貢献する。
我々のアプローチは、局所的な幾何学と外観を別個のハッシュエンコードされたニューラル特徴グリッドにエンコードする暗黙の時間条件のポイントクラウドである、$textitdynamic Neural point cloudとして表現されている。
論文 参考訳(メタデータ) (2024-06-14T14:35:44Z) - Kronecker Product Feature Fusion for Convolutional Neural Network in
Remote Sensing Scene Classification [0.0]
CNNはリモートセンシング画像から階層的畳み込み特徴を抽出できる。
AddとConcatという2つのFeature Fusionメソッドは、ある種の最先端CNNアルゴリズムで採用されている。
Kronecker Product (KPFF) を用いた上記の手法を統一した新しいFeature Fusionアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T19:01:01Z) - A Novel Hand Gesture Detection and Recognition system based on
ensemble-based Convolutional Neural Network [3.5665681694253903]
コンピュータビジョンとパターン認識コミュニティでは,手の部分検出が課題となっている。
畳み込みニューラルネットワーク(CNN)アーキテクチャのようなディープラーニングアルゴリズムは、分類タスクにおいて非常に一般的な選択肢となっている。
本稿では,CNNに基づくアプローチのアンサンブルを用いて,予測時の高分散や過度な問題,予測誤差などの問題を克服する。
論文 参考訳(メタデータ) (2022-02-25T06:46:58Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Video-based Facial Expression Recognition using Graph Convolutional
Networks [57.980827038988735]
我々は、ビデオベースの表情認識のための共通のCNN-RNNモデルに、GCN(Graph Convolutional Network)層を導入する。
我々は、CK+、Oulu-CASIA、MMIの3つの広く使われているデータセットと、AFEW8.0の挑戦的なワイルドデータセットについて、本手法の評価を行った。
論文 参考訳(メタデータ) (2020-10-26T07:31:51Z) - When CNNs Meet Random RNNs: Towards Multi-Level Analysis for RGB-D
Object and Scene Recognition [10.796613905980609]
オブジェクトおよびシーン認識タスクのための多モードRGB-D画像から識別的特徴表現を抽出する新しいフレームワークを提案する。
CNNアクティベーションの高次元性に対応するため、ランダムな重み付けプール方式が提案されている。
実験では、RNNステージにおける完全ランダム化構造がCNNアクティベーションを符号化し、識別的ソリッドな特徴を成功させることを確認した。
論文 参考訳(メタデータ) (2020-04-26T10:58:27Z) - A Simple Fix for Convolutional Neural Network via Coordinate Embedding [2.1320960069210484]
座標埋め込みによるCNNモデルに座標情報を組み込むための簡単な手法を提案する。
我々のアプローチは下流モデルアーキテクチャを変更せず、オブジェクト検出のようなタスクのためにトレーニング済みのモデルに容易に適用することができる。
論文 参考訳(メタデータ) (2020-03-24T00:31:27Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。