論文の概要: Development of a Vision System to Enhance the Reliability of the
Pick-and-Place Robot for Autonomous Testing of Camera Module used in
Smartphones
- arxiv url: http://arxiv.org/abs/2305.04605v1
- Date: Mon, 8 May 2023 10:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 14:50:07.344683
- Title: Development of a Vision System to Enhance the Reliability of the
Pick-and-Place Robot for Autonomous Testing of Camera Module used in
Smartphones
- Title(参考訳): スマートフォン用カメラモジュールの自動テスト用ピック・アンド・プレースロボットの信頼性向上のための視覚システムの開発
- Authors: Hoang-Anh Phan, Duy Nam Bui, Tuan Nguyen Dinh, Bao-Anh Hoang, An
Nguyen Ngoc, Dong Tran Huu Quoc, Ha Tran Thi Thuy, Tung Thanh Bui and Van
Nguyen Thi Thanh
- Abstract要約: 提案システムでは,テストソケット内のトレー内のカメラモジュールの存在とカメラモジュールの配置精度を確認することができる。
そのシンプルさと有効性により、提案したビジョンシステムは、産業におけるピック・アンド・プレイスシステムにおいて有用なソリューションとみなすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pick-and-place robots are commonly used in modern industrial manufacturing.
For complex devices/parts like camera modules used in smartphones, which
contain optical parts, electrical components and interfacing connectors, the
placement operation may not absolutely accurate, which may cause damage in the
device under test during the mechanical movement to make good contact for
electrical functions inspection. In this paper, we proposed an effective vision
system including hardware and algorithm to enhance the reliability of the
pick-and-place robot for autonomous testing memory of camera modules. With
limited hardware based on camera and raspberry PI and using simplify image
processing algorithm based on histogram information, the vision system can
confirm the presence of the camera modules in feeding tray and the placement
accuracy of the camera module in test socket. Through that, the system can work
with more flexibility and avoid damaging the device under test. The system was
experimentally quantified through testing approximately 2000 camera modules in
a stable light condition. Experimental results demonstrate that the system
achieves accuracy of more than 99.92%. With its simplicity and effectiveness,
the proposed vision system can be considered as a useful solution for using in
pick-and-place systems in industry.
- Abstract(参考訳): ピック・アンド・プレイス・ロボットは現代の工業生産でよく使われている。
光学部品、電気部品、コネクタを含むスマートフォンで使用されるカメラモジュールのような複雑なデバイスや部品では、配置操作は必ずしも正確ではなく、機械的な動作中にテスト中の装置に損傷を与え、電気機能検査に良好な接触をさせる可能性がある。
本稿では,カメラモジュールの自律的テストメモリのためのピック・アンド・プレイス・ロボットの信頼性を高めるため,ハードウェアとアルゴリズムを含む効果的な視覚システムを提案する。
カメラとraspberry piに基づく限られたハードウェアと、ヒストグラム情報に基づく簡易画像処理アルゴリズムを用いて、視覚システムは、給餌トレイにおけるカメラモジュールの存在とテストソケットにおけるカメラモジュールの配置精度を確認することができる。
これにより、システムは柔軟性を高め、テスト中のデバイスにダメージを与えるのを避けることができる。
このシステムは、約2000台のカメラモジュールを安定した光条件でテストして実験的に定量化された。
実験の結果、システムは99.92%以上の精度を達成した。
そのシンプルさと有効性により、提案したビジョンシステムは、産業におけるピック・アンド・プレイスシステムにおいて有用なソリューションとみなすことができる。
関連論文リスト
- LucidGrasp: Robotic Framework for Autonomous Manipulation of Laboratory Equipment with Different Degrees of Transparency via 6D Pose Estimation [8.961549735358213]
この作業には、液体で満たされた物体を操作するための自律モードを備えたロボットフレームワークの開発が含まれる。
提案するロボットフレームワークは、非自明な操作タスクを実行する問題を解くことができるため、実験室の自動化に応用できる。
論文 参考訳(メタデータ) (2024-10-10T10:40:42Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning [114.66037224769005]
エッジデバイスに特化して設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32MPの写真を処理できる。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
論文 参考訳(メタデータ) (2022-11-08T17:40:50Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Monitoring and Adapting the Physical State of a Camera for Autonomous
Vehicles [10.490646039938252]
本稿では,データおよび物理モデルに基づくカメラの汎用的・タスク指向型自己維持フレームワークを提案する。
このフレームワークを現実世界の地上車両に実装し、カメラが粗悪な状況に対応するためにパラメータを調整できることを実証する。
われわれのフレームワークは、カメラの健康状態を監視し維持するための実用的なソリューションを提供するだけでなく、より高度な問題に対処するための拡張の基盤としても機能する。
論文 参考訳(メタデータ) (2021-12-10T11:14:44Z) - Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation [0.0]
移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
論文 参考訳(メタデータ) (2021-09-17T00:49:31Z) - Monitoring and Diagnosability of Perception Systems [21.25149064251918]
本稿では,認識システムにおける実行時モニタリングと故障検出と識別のための数学的モデルを提案する。
本稿では,LGSVL自動運転シミュレータとApollo Auto自動運転ソフトウェアスタックを用いた実写シミュレーションにおいて,PerSySと呼ばれるモニタリングシステムを実演する。
論文 参考訳(メタデータ) (2020-11-11T23:03:14Z) - Performance Evaluation of Low-Cost Machine Vision Cameras for
Image-Based Grasp Verification [0.0]
本稿では,マシンビジョンカメラを用いた視覚に基づく把握検証システムを提案する。
実験により,選択したマシンビジョンカメラとディープラーニングモデルにより,フレーム精度97%のグルーピングを堅牢に検証できることが実証された。
論文 参考訳(メタデータ) (2020-03-23T10:34:27Z) - Active Perception with A Monocular Camera for Multiscopic Vision [50.370074098619185]
低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
論文 参考訳(メタデータ) (2020-01-22T08:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。