論文の概要: Concept-based Anomaly Detection in Retail Stores for Automatic
Correction using Mobile Robots
- arxiv url: http://arxiv.org/abs/2310.14063v1
- Date: Sat, 21 Oct 2023 16:49:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 02:14:19.712098
- Title: Concept-based Anomaly Detection in Retail Stores for Automatic
Correction using Mobile Robots
- Title(参考訳): 移動ロボットを用いた小売店舗における自動補正のための概念ベース異常検出
- Authors: Aditya Kapoor, Vartika Sengar, Nijil George, Vighnesh Vatsal,
Jayavardhana Gubbi, Balamuralidhar P and Arpan Pal
- Abstract要約: Co-ADは視覚変換器(ViT)を用いた概念に基づく異常検出手法である
計画図のような事前の知識ベースを使わずに、誤って配置されたオブジェクトにフラグを付けることができる。
小売品の異常検出画像セットで89.90%の最高成功率を持つ。
- 参考スコア(独自算出の注目度): 3.989104441591223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking of inventory and rearrangement of misplaced items are some of the
most labor-intensive tasks in a retail environment. While there have been
attempts at using vision-based techniques for these tasks, they mostly use
planogram compliance for detection of any anomalies, a technique that has been
found lacking in robustness and scalability. Moreover, existing systems rely on
human intervention to perform corrective actions after detection. In this
paper, we present Co-AD, a Concept-based Anomaly Detection approach using a
Vision Transformer (ViT) that is able to flag misplaced objects without using a
prior knowledge base such as a planogram. It uses an auto-encoder architecture
followed by outlier detection in the latent space. Co-AD has a peak success
rate of 89.90% on anomaly detection image sets of retail objects drawn from the
RP2K dataset, compared to 80.81% on the best-performing baseline of a standard
ViT auto-encoder. To demonstrate its utility, we describe a robotic mobile
manipulation pipeline to autonomously correct the anomalies flagged by Co-AD.
This work is ultimately aimed towards developing autonomous mobile robot
solutions that reduce the need for human intervention in retail store
management.
- Abstract(参考訳): 在庫の追跡と品物の配置変更は、小売業環境において最も労働集約的な作業である。
これらのタスクに視覚ベースのテクニックを使用する試みはいくつかあるが、それらは主に、堅牢性とスケーラビリティに欠けるテクニックである、異常の検出に計画図のコンプライアンスを使用する。
さらに、既存のシステムは人間の介入に頼って検出後の修正行動を行う。
本稿では,視覚変換器(ViT)を用いた概念に基づく異常検出手法であるCo-ADを提案する。
自動エンコーダアーキテクチャを使用し、次に潜伏空間で異常検出を行う。
co-ad は rp2k データセットから引き出された小売オブジェクトの異常検出画像セットで 89.90% のピーク成功率を持つが、標準 vit オートエンコーダの最高性能ベースラインでは 80.81% である。
実用性を示すために,Co-ADでフラグ付けされた異常を自律的に修正するロボット移動操作パイプラインについて述べる。
この研究は最終的に、店舗経営における人間による介入を減らす自律的な移動ロボットソリューションの開発を目標としている。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - GeneralAD: Anomaly Detection Across Domains by Attending to Distorted Features [68.14842693208465]
GeneralADは、意味的、ほぼ分布的、産業的設定で動作するように設計された異常検出フレームワークである。
本稿では,ノイズ付加やシャッフルなどの簡単な操作を施した自己教師付き異常生成モジュールを提案する。
提案手法を10のデータセットに対して広範囲に評価し,6つの実験結果と,残りの6つの実験結果を得た。
論文 参考訳(メタデータ) (2024-07-17T09:27:41Z) - Conformalized Teleoperation: Confidently Mapping Human Inputs to High-Dimensional Robot Actions [4.855534476454559]
低次元人間の入力から高次元ロボット動作へのマッピングを学習する。
我々のキーとなる考え方は、訓練時に補助地図を適応させ、高次元のアクション量子化を付加的に見積もることである。
本研究では,不確実なユーザ入力やロボットの状態を検出する不確実なインターバル機構を提案する。
論文 参考訳(メタデータ) (2024-06-11T23:16:46Z) - Multimodal Anomaly Detection based on Deep Auto-Encoder for Object Slip
Perception of Mobile Manipulation Robots [22.63980025871784]
提案フレームワークは,RGBや深度カメラ,マイク,力トルクセンサなど,さまざまなロボットセンサから収集した異種データストリームを統合する。
統合されたデータは、ディープオートエンコーダを訓練して、通常の状態を示す多感覚データの潜在表現を構築するために使用される。
次に、トレーニングされたエンコーダの潜伏値と再構成された入力データの潜伏値との差によって測定された誤差スコアによって異常を識別することができる。
論文 参考訳(メタデータ) (2024-03-06T09:15:53Z) - Run-time Introspection of 2D Object Detection in Automated Driving
Systems Using Learning Representations [13.529124221397822]
ディープニューラルネットワーク(DNN)に基づく2次元物体検出のための新しいイントロスペクションソリューションを提案する。
KITTIとBDDのデータセットで評価された1段階および2段階のオブジェクト検出器を用いて,2次元オブジェクト検出におけるエラー検出のためのSOTAイントロスペクション機構を実装した。
性能評価の結果,提案手法はSOTA法より優れており,BDDデータセットのエラー率を9%から17%まで絶対的に削減できることがわかった。
論文 参考訳(メタデータ) (2024-03-02T10:56:14Z) - Integral Migrating Pre-trained Transformer Encoder-decoders for Visual
Object Detection [78.2325219839805]
imTEDは、数発のオブジェクト検出の最先端を最大7.6%改善する。
MS COCOデータセットの実験は、imTEDが一貫してそのデータセットを2.8%上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-19T15:11:20Z) - Proactive Anomaly Detection for Robot Navigation with Multi-Sensor
Fusion [7.293053431456775]
移動ロボットは異常な動作を生成し、ナビゲーション障害を引き起こす。
反応異常検出法は、現在のロボットの状態に基づいて異常なタスク実行を識別する。
本研究では,非構造的かつ不確実な環境下でのロボットナビゲーションのための能動的異常検出ネットワーク(PAAD)を提案する。
論文 参考訳(メタデータ) (2022-04-03T19:48:40Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Unsupervised anomaly detection for a Smart Autonomous Robotic Assistant
Surgeon (SARAS)using a deep residual autoencoder [7.655239948659381]
手術環境における異常事象は稀であり、データをキャプチャして教師付き方法で検出モデルを訓練することは困難である。
深部残存オートエンコーダに基づくロボット支援手術の異常検出に対する非監視的アプローチを提案する。
このシステムは、Colec80では78.4%、SARASファントムデータセットでは95.6%、88.1%のリコールと精度をそれぞれ達成している。
論文 参考訳(メタデータ) (2021-04-22T12:10:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。