論文の概要: AI-Driven Relocation Tracking in Dynamic Kitchen Environments
- arxiv url: http://arxiv.org/abs/2503.01547v1
- Date: Mon, 03 Mar 2025 13:53:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:18:20.898019
- Title: AI-Driven Relocation Tracking in Dynamic Kitchen Environments
- Title(参考訳): 動的キッチン環境におけるAI駆動の移動追跡
- Authors: Arash Nasr Esfahani, Hamed Hosseini, Mehdi Tale Masouleh, Ahmad Kalhor, Hedieh Sajedi,
- Abstract要約: 本研究では,キッチンからロボットをナビゲートし,物体を認識し,移動を追跡するインテリジェントアルゴリズムの開発に焦点をあてる。
キッチンは、物体が頻繁に移動し、並べ替えられ、交換されるため、ダイナミックな性質のため、試験場として選ばれた。
位置に基づいて各オブジェクトのスコアを計算し,すべてのフレームに特徴を導入するフレームスコーリングアルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 6.00017326982492
- License:
- Abstract: As smart homes become more prevalent in daily life, the ability to understand dynamic environments is essential which is increasingly dependent on AI systems. This study focuses on developing an intelligent algorithm which can navigate a robot through a kitchen, recognizing objects, and tracking their relocation. The kitchen was chosen as the testing ground due to its dynamic nature as objects are frequently moved, rearranged and replaced. Various techniques, such as SLAM feature-based tracking and deep learning-based object detection (e.g., Faster R-CNN), are commonly used for object tracking. Additionally, methods such as optical flow analysis and 3D reconstruction have also been used to track the relocation of objects. These approaches often face challenges when it comes to problems such as lighting variations and partial occlusions, where parts of the object are hidden in some frames but visible in others. The proposed method in this study leverages the YOLOv5 architecture, initialized with pre-trained weights and subsequently fine-tuned on a custom dataset. A novel method was developed, introducing a frame-scoring algorithm which calculates a score for each object based on its location and features within all frames. This scoring approach helps to identify changes by determining the best-associated frame for each object and comparing the results in each scene, overcoming limitations seen in other methods while maintaining simplicity in design. The experimental results demonstrate an accuracy of 97.72%, a precision of 95.83% and a recall of 96.84% for this algorithm, which highlights the efficacy of the model in detecting spatial changes.
- Abstract(参考訳): スマートホームが日常的に普及するにつれて、動的環境を理解する能力は不可欠であり、AIシステムにますます依存している。
本研究では,キッチンからロボットをナビゲートし,物体を認識し,移動を追跡するインテリジェントアルゴリズムの開発に焦点をあてる。
キッチンは、物体が頻繁に移動し、並べ替えられ、交換されるため、ダイナミックな性質のため、試験場として選ばれた。
SLAM機能ベースのトラッキングやディープラーニングベースのオブジェクト検出(例えば、より高速なR-CNN)など、さまざまなテクニックが、オブジェクト追跡に一般的に使用されている。
さらに、物体の移動を追跡するために、光学フロー解析や3次元再構成などの手法が用いられている。
これらのアプローチは、照明のバリエーションや部分的な閉塞といった問題において、オブジェクトの一部がいくつかのフレームに隠されているが、他のフレームで見えるという問題に直面することが多い。
提案手法は, YOLOv5アーキテクチャを利用して, トレーニング済みの重み付き初期化を行い, その後, カスタムデータセットで微調整を行う。
フレームの配置と特徴に基づいて各オブジェクトのスコアを算出するフレームスコアアルゴリズムを導入し,新しい手法を開発した。
このスコアリングアプローチは、各オブジェクトの最も関連性の高いフレームを決定し、各シーンの結果を比較し、設計の単純さを維持しながら、他のメソッドで見られる制限を克服することで、変更を識別するのに役立つ。
実験結果は97.72%の精度、95.83%の精度、96.84%のリコールを示し、空間変化の検出におけるモデルの有効性を強調した。
関連論文リスト
- Oriented Tiny Object Detection: A Dataset, Benchmark, and Dynamic Unbiased Learning [51.170479006249195]
本研究では,新しいデータセット,ベンチマーク,動的粗大な学習手法を提案する。
提案するデータセットであるAI-TOD-Rは、すべてのオブジェクト指向オブジェクト検出データセットの中で最小のオブジェクトサイズを特徴としている。
完全教師付きおよびラベル効率の両アプローチを含む,幅広い検出パラダイムにまたがるベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-16T09:14:32Z) - Real-Time Object Detection in Occluded Environment with Background
Cluttering Effects Using Deep Learning [0.8192907805418583]
混在した環境下での車やタンクのリアルタイム検出のためのディープラーニングモデルに集中する。
開発した手法は、カスタムデータセットを作成し、ノイズの多いデータセットをきれいにするために前処理技術を使用する。
SSD-Mobilenet v2モデルの精度とフレームは、YOLO V3やYOLO V4よりも高い。
論文 参考訳(メタデータ) (2024-01-02T01:30:03Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Fast and Accurate Object Detection on Asymmetrical Receptive Field [0.0]
本稿では,物体検出精度を受容場の変化の観点から改善する手法を提案する。
YOLOv5の頭部の構造は、非対称なプール層を付加することによって改変される。
本稿では, 従来の YOLOv5 モデルと比較し, いくつかのパラメータから解析する。
論文 参考訳(メタデータ) (2023-03-15T23:59:18Z) - A Contextual Bandit Approach for Learning to Plan in Environments with
Probabilistic Goal Configurations [20.15854546504947]
本研究では,静的なオブジェクトだけでなく可動なオブジェクトに対しても,屋内環境を効率的に探索できるオブジェクトナビのためのモジュラーフレームワークを提案する。
我々は,不確実性に直面した場合の楽観性を示すことにより,環境を効率的に探索する。
提案アルゴリズムを2つのシミュレーション環境と実世界の環境で評価し,高いサンプル効率と信頼性を示す。
論文 参考訳(メタデータ) (2022-11-29T15:48:54Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Slender Object Detection: Diagnoses and Improvements [74.40792217534]
本稿では,超高アスペクト比,すなわちtextbfslender オブジェクトの特定タイプの検出について検討する。
古典的物体検出法では、細い物体に対してのみ評価される場合、COCO上の18.9%のmAPの劇的な低下が観察される。
論文 参考訳(メタデータ) (2020-11-17T09:39:42Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。