論文の概要: YOLIC: An Efficient Method for Object Localization and Classification on
Edge Devices
- arxiv url: http://arxiv.org/abs/2307.06689v2
- Date: Wed, 19 Jul 2023 09:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 16:36:19.042727
- Title: YOLIC: An Efficient Method for Object Localization and Classification on
Edge Devices
- Title(参考訳): yolic: エッジデバイス上でのオブジェクトのローカライズと分類の効率的な方法
- Authors: Kai Su, Qiangfu Zhao, Yoichi Tomioka, Yong Liu
- Abstract要約: YOLIC(You Only Look at Interested Cells)は、エッジデバイス上でのオブジェクトのローカライズと分類の効率的な方法である。
個々のピクセルではなく分類にCells of Interestを採用することで、YOLICは関連する情報をカプセル化し、計算負荷を低減し、粗いオブジェクト形状の推論を可能にする。
本稿では、複数のデータセットに対する広範な実験を行い、YOLICが最先端のYOLOアルゴリズムに匹敵する検出性能を実現することを示す。
- 参考スコア(独自算出の注目度): 10.058627390826967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of Tiny AI, we introduce "You Only Look at Interested Cells"
(YOLIC), an efficient method for object localization and classification on edge
devices. Seamlessly blending the strengths of semantic segmentation and object
detection, YOLIC offers superior computational efficiency and precision. By
adopting Cells of Interest for classification instead of individual pixels,
YOLIC encapsulates relevant information, reduces computational load, and
enables rough object shape inference. Importantly, the need for bounding box
regression is obviated, as YOLIC capitalizes on the predetermined cell
configuration that provides information about potential object location, size,
and shape. To tackle the issue of single-label classification limitations, a
multi-label classification approach is applied to each cell, effectively
recognizing overlapping or closely situated objects. This paper presents
extensive experiments on multiple datasets, demonstrating that YOLIC achieves
detection performance comparable to the state-of-the-art YOLO algorithms while
surpassing in speed, exceeding 30fps on a Raspberry Pi 4B CPU. All resources
related to this study, including datasets, cell designer, image annotation
tool, and source code, have been made publicly available on our project website
at https://kai3316.github.io/yolic.github.io
- Abstract(参考訳): Tiny AIの領域では、エッジデバイス上でオブジェクトのローカライズと分類を行う効率的な方法である"You Only Look at Interested Cells"(YOLIC)を紹介する。
YOLICはセマンティックセグメンテーションとオブジェクト検出の長所をシームレスにブレンドし、優れた計算効率と精度を提供する。
個々のピクセルではなく分類にCells of Interestを採用することで、YOLICは関連する情報をカプセル化し、計算負荷を低減し、粗いオブジェクト形状推論を可能にする。
重要なことに、YoLICは潜在的なオブジェクトの位置、サイズ、形状に関する情報を提供する所定のセル構成に重きを置いているため、バウンディングボックスの回帰は不要である。
シングルラベル分類制限の問題に対処するため,複数ラベル分類アプローチを各セルに適用し,重なり合うオブジェクトや近接するオブジェクトを効果的に認識する。
本稿では,複数のデータセットに対する広範な実験を行い,最新のYOLOアルゴリズムに匹敵する検出性能が,Raspberry Pi 4B CPU上で30fpsを超える速度で達成されていることを示す。
データセット、セルデザイナー、画像アノテーションツール、ソースコードなど、この研究に関連するすべてのリソースは、プロジェクトのwebサイトhttps://kai3316.github.io/yolic.github.ioで公開されている。
関連論文リスト
- LRSAA: Large-scale Remote Sensing Image Target Recognition and Automatic Annotation [0.0]
LRSAAと呼ばれる大面積リモートセンシング画像におけるオブジェクト認識と自動ラベリングの手法を提案する。
YOLOv11とMobileNetV3-SSDオブジェクト検出アルゴリズムをアンサンブル学習により統合し,モデル性能を向上させる。
論文 参考訳(メタデータ) (2024-11-24T12:30:12Z) - Large-scale Remote Sensing Image Target Recognition and Automatic Annotation [0.0]
LRSAAと呼ばれる大面積リモートセンシング画像におけるオブジェクト認識と自動ラベリングの手法を提案する。
YOLOv11とMobileNetV3-SSDオブジェクト検出アルゴリズムをアンサンブル学習により統合し,モデル性能を向上させる。
論文 参考訳(メタデータ) (2024-11-12T13:57:13Z) - Unsupervised Learning of Object-Centric Embeddings for Cell Instance
Segmentation in Microscopy Images [3.039768384237206]
オブジェクト中心埋め込み(OCE)を導入する。
OCEはイメージパッチを埋め込み、同じオブジェクトから取得したパッチ間のオフセットが保存される。
画像パッチ間の空間オフセットを予測する自己教師型タスクにより,OCEを学習できることを理論的に示す。
論文 参考訳(メタデータ) (2023-10-12T16:59:50Z) - Background Activation Suppression for Weakly Supervised Object
Localization and Semantic Segmentation [84.62067728093358]
弱教師付きオブジェクトローカライゼーションとセマンティックセグメンテーションは、画像レベルのラベルのみを使用してオブジェクトをローカライズすることを目的としている。
画素レベルのローカライゼーションを実現するために,フォアグラウンド予測マップを生成することで,新たなパラダイムが誕生した。
本稿では,物体の局在化学習過程に関する2つの驚くべき実験結果を示す。
論文 参考訳(メタデータ) (2023-09-22T15:44:10Z) - YUDO: YOLO for Uniform Directed Object Detection [0.0]
本稿では,その中心座標と方向角を予測し,対象物を検出する効率的な方法を提案する。
物体の大きさは均一であるため, 物体の幅や高さを予測せずに動作可能である。
論文 参考訳(メタデータ) (2023-08-08T19:18:20Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - An advanced YOLOv3 method for small object detection [2.906551456030129]
本稿では,小型物体検出のための改良型YOLOv3アルゴリズムを提案する。
提案手法では,拡張畳み込みミッシュ(DCM)モジュールをYOLOv3のバックボーンネットワークに導入する。
YOLOv3のネックネットワークでは、畳み込みブロックアテンションモジュール(CBAM)とマルチレベル融合モジュールが導入されている。
論文 参考訳(メタデータ) (2022-12-06T07:58:21Z) - VPIT: Real-time Embedded Single Object 3D Tracking Using Voxel Pseudo Images [90.60881721134656]
本稿では,Voxel Pseudo Image Tracking (VPIT) という,Voxel-based 3D Single Object Tracking (3D SOT) 手法を提案する。
KITTI追跡データセットの実験は、VPITが最速の3D SOT法であり、競合的な成功と精度の値を維持することを示している。
論文 参考訳(メタデータ) (2022-06-06T14:02:06Z) - ImpDet: Exploring Implicit Fields for 3D Object Detection [74.63774221984725]
我々は、境界ボックス回帰を暗黙の関数として見る新しい視点を導入する。
これは、Implicit DetectionまたはImpDetと呼ばれる提案されたフレームワークにつながります。
我々のImpDetは、異なる局所的な3次元空間の点に特定の値を割り当て、高品質な境界を生成することができる。
論文 参考訳(メタデータ) (2022-03-31T17:52:12Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。