論文の概要: HB-net: Holistic bursting cell cluster integrated network for occluded
multi-objects recognition
- arxiv url: http://arxiv.org/abs/2310.11834v1
- Date: Wed, 18 Oct 2023 09:38:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 17:06:56.544015
- Title: HB-net: Holistic bursting cell cluster integrated network for occluded
multi-objects recognition
- Title(参考訳): HB-net:Occluded Multi-objects Recognitionのためのホロスティックバーストセルクラスタ統合ネットワーク
- Authors: Xudong Gao, Xiao Guang Gao, Jia Rong, Xiaowei Chen, Xiang Liao, Jun
Chen
- Abstract要約: マルチラベル分類(MLC)は、視覚領域内の物体が互いに干渉する可能性がある場合に発生する課題である。
従来の畳み込みニューラルネットワーク(CNN)はこれらの課題に対処できるが、これらのモデルはかさばる傾向があり、わずかな精度しか達成できない。
本稿では,HB-netというネットワークフレームワークを先駆的に導入する。
- 参考スコア(独自算出の注目度): 10.113801578414881
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Within the realm of image recognition, a specific category of multi-label
classification (MLC) challenges arises when objects within the visual field may
occlude one another, demanding simultaneous identification of both occluded and
occluding objects. Traditional convolutional neural networks (CNNs) can tackle
these challenges; however, those models tend to be bulky and can only attain
modest levels of accuracy. Leveraging insights from cutting-edge neural science
research, specifically the Holistic Bursting (HB) cell, this paper introduces a
pioneering integrated network framework named HB-net. Built upon the foundation
of HB cell clusters, HB-net is designed to address the intricate task of
simultaneously recognizing multiple occluded objects within images. Various
Bursting cell cluster structures are introduced, complemented by an evidence
accumulation mechanism. Testing is conducted on multiple datasets comprising
digits and letters. The results demonstrate that models incorporating the HB
framework exhibit a significant $2.98\%$ enhancement in recognition accuracy
compared to models without the HB framework ($1.0298$ times, $p=0.0499$).
Although in high-noise settings, standard CNNs exhibit slightly greater
robustness when compared to HB-net models, the models that combine the HB
framework and EA mechanism achieve a comparable level of accuracy and
resilience to ResNet50, despite having only three convolutional layers and
approximately $1/30$ of the parameters. The findings of this study offer
valuable insights for improving computer vision algorithms. The essential code
is provided at https://github.com/d-lab438/hb-net.git.
- Abstract(参考訳): 画像認識の分野では、視覚野内の物体がお互いを遮蔽する可能性がある場合に、オクルードとオクルーディングの両方のオブジェクトの同時識別を要求するマルチラベル分類(mlc:multi-label classification)の特定のカテゴリが発生する。
従来の畳み込みニューラルネットワーク(CNN)はこれらの課題に対処できるが、これらのモデルはかさばる傾向があり、わずかな精度しか達成できない。
本稿では,最先端のニューラルネットワーク研究,特にHBセルの知見を活用して,HB-netというネットワークフレームワークを先駆的に導入する。
HBセルクラスタの基礎の上に構築されたHB-netは、画像内の複数の隠蔽オブジェクトを同時に認識する複雑なタスクに対処するように設計されている。
様々なバースト細胞クラスター構造を導入し、エビデンス蓄積機構を補完する。
数字と文字からなる複数のデータセットでテストを行う。
その結果、hbフレームワークを組み込んだモデルは、hbフレームワークを持たないモデルに比べて認識精度が大幅に向上している($1.0298$ times, $p=0.0499$)。
ハイノイズ環境では、標準CNNはHB-netモデルと比較してわずかに頑丈であるが、HBフレームワークとEAメカニズムを組み合わせたモデルは、3つの畳み込み層と約1/30ドルのパラメータしか持たないにもかかわらず、ResNet50に匹敵する精度とレジリエンスを達成する。
本研究は,コンピュータビジョンアルゴリズムの改良に有用な知見を提供する。
必須コードはhttps://github.com/d-lab438/hb-net.gitにある。
関連論文リスト
- CAVE: Classifying Abnormalities in Video Capsule Endoscopy [0.1937002985471497]
本研究では,複雑な画像データセットの分類精度を向上させるために,アンサンブルに基づくアプローチを検討する。
各モデルのユニークな特徴抽出機能を活用し、全体的な精度を向上させる。
実験により、アンサンブルは難易度と不均衡度の高いクラス間で高い精度と堅牢性を達成することが示された。
論文 参考訳(メタデータ) (2024-10-26T17:25:08Z) - Mew: Multiplexed Immunofluorescence Image Analysis through an Efficient Multiplex Network [84.88767228835928]
マルチプレックスネットワークのレンズを通してmIF画像を効率的に処理する新しいフレームワークであるMewを紹介する。
Mew は、幾何学情報のための Voronoi ネットワークと、セルワイドの均一性を捉えるセル型ネットワークという、2つの異なる層からなる多重ネットワークを革新的に構築する。
このフレームワークは、トレーニング中にグラフ全体を処理できるスケーラブルで効率的なグラフニューラルネットワーク(GNN)を備えている。
論文 参考訳(メタデータ) (2024-07-25T08:22:30Z) - CDIMC-net: Cognitive Deep Incomplete Multi-view Clustering Network [53.72046586512026]
我々は,認知的深層不完全多視点クラスタリングネットワーク(CDIMC-net)という,新しい不完全多視点クラスタリングネットワークを提案する。
ビュー固有のディープエンコーダとグラフ埋め込み戦略をフレームワークに組み込むことで、各ビューの高レベルな特徴とローカル構造をキャプチャする。
人間の認知、すなわち、簡単からハードに学ぶことに基づいて、モデルトレーニングのための最も自信あるサンプルを選択するための自己評価戦略を導入する。
論文 参考訳(メタデータ) (2024-03-28T15:45:03Z) - Segment Anything for comprehensive analysis of grapevine cluster architecture and berry properties [0.0]
本研究では,2次元クラスタ画像における個々のベリーの同定において,SAMの精度が高いことを示す。
ヒトの識別したベリーとSAMの予測の相関は非常に強い。
論文 参考訳(メタデータ) (2024-03-19T17:37:18Z) - Edge Detectors Can Make Deep Convolutional Neural Networks More Robust [25.871767605100636]
本稿では、まずエッジ検出器をレイヤカーネルとして使用し、バイナリエッジ特徴分枝(BEFB)を設計し、バイナリエッジ特徴を学習する。
BEFB統合モデルの精度は、FGSM、PGD、C&W攻撃に直面する場合、すべてのデータセットのオリジナルのモデルよりも優れている。
本研究は,DCNNの形状的特徴とテクスチャ的特徴を組み合わせることで,DCNNの堅牢性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-26T10:54:26Z) - Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - A heterogeneous group CNN for image super-resolution [127.2132400582117]
畳み込みニューラルネットワーク(CNN)は、深いアーキテクチャを通して顕著な性能を得た。
異種グループSR CNN(HGSRCNN)を,異なるタイプの構造情報を利用して高品質な画像を得る。
論文 参考訳(メタデータ) (2022-09-26T04:14:59Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - A Hierarchical Block Distance Model for Ultra Low-Dimensional Graph
Representations [0.0]
本稿では,ブロック距離モデル(HBDM)と呼ばれる,スケーラブルなグラフ表現学習手法を提案する。
HBDMは、階層全体を通して潜在距離モデル(LDM)を正確に近似することで、ホモフィリティーと推移性の原因となる。
我々は,数百万ノードからなる大規模ネットワーク上でのHBDMの性能を評価する。
論文 参考訳(メタデータ) (2022-04-12T15:23:12Z) - An Efficient Cervical Whole Slide Image Analysis Framework Based on
Multi-scale Semantic and Spatial Features using Deep Learning [2.7218168309244652]
本研究では,YOLCO(You Only Look Cytopathology Once)という名前の軽量モデルを構築するために,マルチスケール接続を充実させることにより,新しいインライン接続ネットワーク(InCNet)を設計する。
提案したモデルでは、入力サイズをメガピクセルに拡大し、平均リピートで重なり合うことなくWSIを縫合することができる。
統合マルチスケールマルチタスクの特徴を分類するためのTransformerに基づいて、実験結果は、WSI分類における従来の方法よりも0.872$ AUCスコアが良く、2.51times$速く見える。
論文 参考訳(メタデータ) (2021-06-29T06:24:55Z) - CARAFE++: Unified Content-Aware ReAssembly of FEatures [132.49582482421246]
この目標を達成するために、ユニバーサルで軽量で高効率なオペレータであるContent-Aware ReAssembly of FEatures(CARAFE++)を提案します。
CARAFE++は、インスタンス固有のコンテンツ認識処理を可能にするアダプティブカーネルをオンザフライで生成する。
計算のオーバーヘッドが無視できるすべてのタスクにおいて、一貫性と実質的な利益を示しています。
論文 参考訳(メタデータ) (2020-12-07T07:34:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。