論文の概要: About an Automating Annotation Method for Robot Markers
- arxiv url: http://arxiv.org/abs/2601.22982v1
- Date: Fri, 30 Jan 2026 13:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.480506
- Title: About an Automating Annotation Method for Robot Markers
- Title(参考訳): ロボットマーカーの自動アノテーション法について
- Authors: Wataru Uemura, Takeru Nagashima,
- Abstract要約: 本稿では,ArUcoマーカー画像を用いたディープラーニングモデルの自動アノテーション手法を提案する。
自動アノテーション付きデータセットを用いてYOLOベースのモデルをトレーニングし、その性能を様々な条件下で評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Factory automation has become increasingly important due to labor shortages, leading to the introduction of autonomous mobile robots for tasks such as material transportation. Markers are commonly used for robot self-localization and object identification. In the RoboCup Logistics League (RCLL), ArUco markers are employed both for robot localization and for identifying processing modules. Conventional recognition relies on OpenCV-based image processing, which detects black-and-white marker patterns. However, these methods often fail under noise, motion blur, defocus, or varying illumination conditions. Deep-learning-based recognition offers improved robustness under such conditions, but requires large amounts of annotated data. Annotation must typically be done manually, as the type and position of objects cannot be detected automatically, making dataset preparation a major bottleneck. In contrast, ArUco markers include built-in recognition modules that provide both ID and positional information, enabling automatic annotation. This paper proposes an automated annotation method for training deep-learning models on ArUco marker images. By leveraging marker detection results obtained from the ArUco module, the proposed approach eliminates the need for manual labeling. A YOLO-based model is trained using the automatically annotated dataset, and its performance is evaluated under various conditions. Experimental results demonstrate that the proposed method improves recognition performance compared with conventional image-processing techniques, particularly for images affected by blur or defocus. Automatic annotation also reduces human effort and ensures consistent labeling quality. Future work will investigate the relationship between confidence thresholds and recognition performance.
- Abstract(参考訳): 工場の自動化は、労働力不足によりますます重要になってきており、物質輸送などのタスクに自律移動ロボットが導入された。
マーカーは、ロボットの自己ローカライゼーションとオブジェクト識別に一般的に使用される。
RoboCup Logistics League (RCLL)では、ArUcoマーカーはロボットのローカライゼーションと処理モジュールの識別に使われている。
従来の認識は、白黒マーカーパターンを検出するOpenCVベースの画像処理に依存している。
しかし、これらの手法は、ノイズ、動きのぼかし、デフォーカス、あるいは様々な照明条件下で失敗することが多い。
ディープラーニングに基づく認識は、このような条件下での堅牢性を改善するが、大量の注釈付きデータを必要とする。
アノテーションは通常手動で行う必要があり、オブジェクトの型と位置を自動的に検出できないため、データセットの準備が大きなボトルネックとなる。
対照的に、ArUcoマーカーには、IDと位置情報の両方を提供する組み込み認識モジュールが含まれており、自動アノテーションが有効になっている。
本稿では,ArUcoマーカー画像を用いたディープラーニングモデルの自動アノテーション手法を提案する。
ArUcoモジュールから得られたマーカー検出結果を活用することで,手動ラベリングの必要性を解消する。
自動アノテーション付きデータセットを用いてYOLOベースのモデルをトレーニングし、その性能を様々な条件下で評価する。
実験により,従来の画像処理技術と比較して認識性能が向上し,特にぼやけた画像やデフォーカス画像の認識性能が向上することが確認された。
自動アノテーションは人間の労力を減らし、一貫性のあるラベル付けの品質を保証する。
今後,信頼度閾値と認識性能の関係について検討する。
関連論文リスト
- AutoOcc: Automatic Open-Ended Semantic Occupancy Annotation via Vision-Language Guided Gaussian Splatting [46.677120329555486]
AutoOccはセマンティック占有アノテーションのためのビジョン中心の自動パイプラインである。
オープンエンドなセマンティックな3D占有の再構築タスクを定式化し、シーン占有を自動的に生成する。
我々のフレームワークは、人間のラベルを使わずに、既存の自動占有アノテーション手法より優れています。
論文 参考訳(メタデータ) (2025-02-07T14:58:59Z) - Automatic Image Annotation for Mapped Features Detection [6.300346102366891]
道路機能は、自動運転とローカライゼーションの鍵となる。
現代のディープラーニングに基づく知覚システムは、大量の注釈付きデータを必要とする。
本稿では,画像中の3つの自動アノテーション手法の融合について考察する。
論文 参考訳(メタデータ) (2024-12-11T09:06:52Z) - Kalib: Easy Hand-Eye Calibration with Reference Point Tracking [52.4190876409222]
カリブ (Kalib) は、視覚基礎モデルの一般化性を利用して課題を克服する手眼自動校正法である。
校正中は、ロボットの後ろの空間内のカメラ座標3D座標に運動基準点を追跡する。
Kalibのユーザフレンドリな設計と最小限のセットアップ要件により、非構造化環境での継続的操作のソリューションとなり得る。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - Repurposing SAM for User-Defined Semantics Aware Segmentation [22.682715573404124]
SAMに意味認識を付与する新しいフレームワークであるU-SAMを提案する。
U-SAMは、テストデータディストリビューションのラベル付き/ラベルなしサンプルを必要とせずに、画像にピクセルレベルのセマンティックアノテーションを提供する。
We evaluate U-SAM on PASCAL VOC 2012 and MSCOCO-80, achieve significant mIoU improve of +17.95% and +520%。
論文 参考訳(メタデータ) (2023-12-05T01:37:18Z) - Helping Hands: An Object-Aware Ego-Centric Video Recognition Model [60.350851196619296]
オブジェクト認識デコーダを導入し、エゴ中心の動画におけるエゴ中心の表現の性能を向上させる。
このモデルは,エゴ認識ビデオモデルの代替として機能し,視覚テキストのグラウンド化による性能向上を図っている。
論文 参考訳(メタデータ) (2023-08-15T17:58:11Z) - Self-Supervised Clustering on Image-Subtracted Data with Deep-Embedded
Self-Organizing Map [0.0]
自己教師型機械学習モデルであるdeep-embedded self-organizing map (DESOM)を実ボガス分類問題に適用する。
我々は異なるモデルトレーニング手法を実証し、最良のDESOM分類器は検出率6.6%、偽陽性率1.5%を示した。
論文 参考訳(メタデータ) (2022-09-14T02:37:06Z) - MAPLE: Masked Pseudo-Labeling autoEncoder for Semi-supervised Point
Cloud Action Recognition [160.49403075559158]
本稿では,Pseudo-Labeling autoEncoder (textbfMAPLE) フレームワークを提案する。
特に、MAPLEのバックボーンとして、新規で効率的なtextbfDecoupled textbfspatial-textbftemporal TranstextbfFormer(textbfDestFormer)を設計する。
MAPLEは3つの公開ベンチマークにおいて優れた結果を得て、MSR-Action3の精度を8.08%向上させる。
論文 参考訳(メタデータ) (2022-09-01T12:32:40Z) - Learning Task Automata for Reinforcement Learning using Hidden Markov
Models [37.69303106863453]
本稿では,非マルコフ型タスク仕様を簡潔な有限状態タスクオートマトンとして学習するための新しいパイプラインを提案する。
我々は,その製品 MDP を部分的に観測可能な MDP として扱い,よく知られた Baum-Welch アルゴリズムを用いて隠れマルコフモデルを学習することで,仕様のオートマトンと環境の MDP からなるモデルである製品 MDP を学習する。
我々の学習タスクオートマトンはタスクをその構成サブタスクに分解し、RLエージェントが後に最適なポリシーを合成できる速度を改善する。
論文 参考訳(メタデータ) (2022-08-25T02:58:23Z) - ID-Conditioned Auto-Encoder for Unsupervised Anomaly Detection [0.0]
教師なし異常検出のためのID-Conditioned Auto-Encoderを導入する。
本手法は,オープンセット認識のために設計されたC2AE(Class-Conditioned Auto-Encoder)の適応である。
我々は,DCASE 2020 Challenge Task 2のToyADMOSおよびMIMIIデータセットについて検討した。
論文 参考訳(メタデータ) (2020-07-10T11:24:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。