論文の概要: Commonsense Knowledge Assisted Deep Learning for Resource-constrained
and Fine-grained Object Detection
- arxiv url: http://arxiv.org/abs/2303.09026v1
- Date: Thu, 16 Mar 2023 01:39:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 17:11:57.639950
- Title: Commonsense Knowledge Assisted Deep Learning for Resource-constrained
and Fine-grained Object Detection
- Title(参考訳): 資源制約および細粒度物体検出のためのコモンセンス知識支援深層学習
- Authors: Pu Zhang, Bin Liu
- Abstract要約: 本稿では,コモンセンスの知識を活用し,粗粒度物体検出器の高精度検出を支援する手法を提案する。
実験の結果,提案手法は,精度,モデルサイズ,処理遅延の点で,ベンチマーク検出器よりも優れていた。
- 参考スコア(独自算出の注目度): 10.11482186385971
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we consider fine-grained image object detection in
resource-constrained cases such as edge computing. Deep learning (DL), namely
learning with deep neural networks (DNNs), has become the dominating approach
to object detection. To achieve accurate fine-grained detection, one needs to
employ a large enough DNN model and a vast amount of data annotations, which
brings a challenge for using modern DL object detectors in resource-constrained
cases. To this end, we propose an approach, which leverages commonsense
knowledge to assist a coarse-grained object detector to get accurate
fine-grained detection results. Specifically, we introduce a commonsense
knowledge inference module (CKIM) to process coarse-grained lables given by a
benchmark DL detector to produce fine-grained lables. We consider both
crisp-rule and fuzzy-rule based inference in our CKIM; the latter is used to
handle ambiguity in the target semantic labels. We implement our method based
on several modern DL detectors, namely YOLOv4, Mobilenetv3-SSD and YOLOv7-tiny.
Experiment results show that our approach outperforms benchmark detectors
remarkably in terms of accuracy, model size and processing latency.
- Abstract(参考訳): 本稿では,エッジコンピューティングなどの資源制約のあるケースにおける微細な画像オブジェクト検出について考察する。
ディープラーニング(DL)、すなわちディープニューラルネットワーク(DNN)による学習は、オブジェクト検出において支配的なアプローチとなっている。
正確なきめ細かい検出を実現するには、十分に大きなDNNモデルと大量のデータアノテーションを使用する必要がある。
そこで本研究では,コモンセンスの知識を活用し,粗粒度物体検出器の高精度検出を支援する手法を提案する。
具体的には,ベンチマークDL検出器によって得られた粗粒度ラベレを処理し,微細粒度ラベレを生成するコモンセンス知識推論モジュール(CKIM)を導入する。
我々はckimにおいて、spash-rule とファジィ-rule に基づく推論の両方を考慮し、後者は対象意味ラベルの曖昧さを扱うために使用される。
本手法は, YOLOv4, Mobilenetv3-SSD, YOLOv7-tinyという, 最新のDL検出器を用いて実装した。
実験結果から,提案手法は精度,モデルサイズ,処理遅延の点でベンチマーク検出器よりも優れていた。
関連論文リスト
- Model2Detector:Widening the Information Bottleneck for
Out-of-Distribution Detection using a Handful of Gradient Steps [12.263417500077383]
アウト・オブ・ディストリビューション検出は、長いバニラニューラルネットワークを持つ重要な機能である。
推論時間外分布検出の最近の進歩は、これらの問題のいくつかを緩和するのに役立つ。
提案手法は,一般的な画像データセットにおける検出精度において,常に最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-22T23:03:40Z) - Double-Dot Network for Antipodal Grasp Detection [20.21384585441404]
本稿では,Double-Dot Network (DD-Net) という,対足足歩行検出のための新しい深層学習手法を提案する。
これは、経験的にプリセットされたアンカーに依存しない最近のアンカーフリーなオブジェクト検出フレームワークに従っている。
このような指先をローカライズするために効果的なCNNアーキテクチャを導入し、改良のための補助センターの助けを借りて、把握候補を正確かつ堅牢に推測する。
論文 参考訳(メタデータ) (2021-08-03T14:21:17Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - Unsupervised Object Detection with LiDAR Clues [70.73881791310495]
本稿では,LiDARの手がかりを用いた非教師対象検出のための最初の実用的手法を提案する。
提案手法では,まず3次元点雲に基づく候補オブジェクトセグメントを生成する。
そして、セグメントラベルを割り当て、セグメントラベルネットワークを訓練する反復的なセグメントラベル処理を行う。
ラベル付けプロセスは、長い尾とオープンエンドの分布の問題を軽減するために慎重に設計されている。
論文 参考訳(メタデータ) (2020-11-25T18:59:54Z) - Interpolation-based semi-supervised learning for object detection [44.37685664440632]
オブジェクト検出のための補間に基づく半教師付き学習手法を提案する。
提案した損失は、半教師付き学習と教師付き学習の性能を劇的に向上させる。
論文 参考訳(メタデータ) (2020-06-03T10:53:44Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z) - Progressive Object Transfer Detection [84.48927705173494]
本稿では,新しいプログレッシブオブジェクト転送検出(POTD)フレームワークを提案する。
第一に、POTDは様々なドメインの様々なオブジェクトを効果的にプログレッシブな検出手順に活用することができる。
第2に、POTDは2つの微妙な転送段階、すなわち、LSTD(low-Shot Transfer Detection)とWSTD(Weakly Supervised Transfer Detection)から構成される。
論文 参考訳(メタデータ) (2020-02-12T00:16:24Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。