論文の概要: Energy Aware Camera Location Search Algorithm for Increasing Precision of Observation in Automated Manufacturing
- arxiv url: http://arxiv.org/abs/2506.10251v1
- Date: Thu, 12 Jun 2025 00:32:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.503922
- Title: Energy Aware Camera Location Search Algorithm for Increasing Precision of Observation in Automated Manufacturing
- Title(参考訳): 自動製造における観察精度向上のための省エネルギーカメラ位置探索アルゴリズム
- Authors: Rongfei Li, Francis Assadian,
- Abstract要約: カメラのワークスペースを探索し,最適な位置を探索するために,カメラの移動ポリシーのためのアルゴリズムを提案する。
単純なブルートフォースアプローチとは異なり、このアルゴリズムは環境学習から探索ポリシーを適用することで、より効率的に空間を探索することができる。
自動製造アプリケーションがシミュレーションされ, 得られた結果は, 限られたエネルギーで観測精度が向上したことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual servoing technology has been well developed and applied in many automated manufacturing tasks, especially in tools' pose alignment. To access a full global view of tools, most applications adopt eye-to-hand configuration or eye-to-hand/eye-in-hand cooperation configuration in an automated manufacturing environment. Most research papers mainly put efforts into developing control and observation architectures in various scenarios, but few of them have discussed the importance of the camera's location in eye-to-hand configuration. In a manufacturing environment, the quality of camera estimations may vary significantly from one observation location to another, as the combined effects of environmental conditions result in different noise levels of a single image shot at different locations. In this paper, we propose an algorithm for the camera's moving policy so that it explores the camera workspace and searches for the optimal location where the images' noise level is minimized. Also, this algorithm ensures the camera ends up at a suboptimal (if the optimal one is unreachable) location among the locations already searched, with limited energy available for moving the camera. Unlike a simple brute force approach, the algorithm enables the camera to explore space more efficiently by adapting the search policy from learning the environment. With the aid of an image averaging technique, this algorithm, in use of a solo camera, achieves the observation accuracy in eye-to-hand configurations to a desirable extent without filtering out high-frequency information in the original image. An automated manufacturing application has been simulated and the results show the success of this algorithm's improvement of observation precision with limited energy.
- Abstract(参考訳): ビジュアルサーボ技術は、多くの自動化された製造タスク、特にツールのポーズアライメントによく開発され、応用されている。
ツールの完全なグローバルビューにアクセスするために、ほとんどのアプリケーションは、自動化された製造環境において、アイ・ツー・ハンド構成またはアイ・ツー・ハンド協調構成を採用する。
多くの研究論文は、主に様々なシナリオにおける制御と観測アーキテクチャの開発に力を入れているが、カメラの位置が目と手の設定で重要であるという議論は少ない。
製造環境では、環境条件の複合効果により、異なる場所で撮影された単一画像のノイズレベルが異なるため、カメラ推定の品質は、ある観測場所から別の観測場所へ大きく異なる可能性がある。
本稿では,カメラの作業空間を探索し,画像のノイズレベルが最小となる最適な位置を探索する,カメラの移動ポリシーのためのアルゴリズムを提案する。
また、このアルゴリズムは、既に検索された場所の中で、カメラが最適な位置(最適な位置が到達できない場合)に到達し、カメラを動かすための限られたエネルギーを確保できる。
単純なブルートフォースアプローチとは異なり、このアルゴリズムは環境学習から探索ポリシーを適用することで、より効率的に空間を探索することができる。
画像平均化技術を用いて、このアルゴリズムは、単独のカメラを用いて、元の画像の高周波情報をフィルタリングすることなく、目と手の位置の観察精度を所望の程度に向上させる。
自動製造アプリケーションがシミュレーションされ, 得られた結果は, 限られたエネルギーで観測精度が向上したことを示す。
関連論文リスト
- Diversity-Driven View Subset Selection for Indoor Novel View Synthesis [54.468355408388675]
本稿では、包括的多様性に基づく測定と、よく設計されたユーティリティ機能を統合する新しいサブセット選択フレームワークを提案する。
私たちのフレームワークは、データの5~20%しか使用せずに、ベースライン戦略を一貫して上回ります。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - SaccadeDet: A Novel Dual-Stage Architecture for Rapid and Accurate Detection in Gigapixel Images [50.742420049839474]
SaccadeDetは、人間の目の動きにインスパイアされた、ギガピクセルレベルの物体検出のための革新的なアーキテクチャである。
PANDAデータセットを用いて評価した本手法は,最先端手法の8倍の高速化を実現する。
また、全スライドイメージングへの応用を通じて、ギガピクセルレベルの病理解析に有意な可能性を示す。
論文 参考訳(メタデータ) (2024-07-25T11:22:54Z) - A Novel Method to Improve Quality Surface Coverage in Multi-View Capture [4.104177767144517]
被写界深度 (deep of field) は、被写体からカメラまでの距離を短くしたり、焦点距離が大きい場合の限界因子である。
被被覆表面積の品質を最適化する,各カメラに焦点距離を導出する手法を提案する。
本手法の有効性を,全身撮影における様々なシミュレーションで示す。
論文 参考訳(メタデータ) (2024-07-21T00:14:15Z) - RETINA: a hardware-in-the-loop optical facility with reduced optical aberrations [0.0]
視覚に基づくナビゲーションアルゴリズムは、低コストで汎用的なセンサーで軌道上の宇宙船の状態を決定する効果的な解決策として自らを確立している。
実験室で軌道環境をエミュレートするために、専用のシミュレーションフレームワークを開発する必要がある。
本稿では,RETINAと呼ばれる低収差光学設備の設計について述べる。
論文 参考訳(メタデータ) (2024-07-02T11:26:37Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Optimizing Camera Configurations for Multi-View Pedestrian Detection [21.89117952343898]
本研究では,トランス方式のカメラ構成生成器を特徴とする新しいソリューションを提案する。
強化学習を用いて、このジェネレータは、アクション空間内の広大な組み合わせを自律的に探索し、最も高い検出精度を与える構成を探索する。
複数のシミュレーションシナリオにおいて、トランスフォーマーモデルによって生成された構成は、人間の専門家が設計したランダム検索、最適化、構成よりも一貫して優れています。
論文 参考訳(メタデータ) (2023-12-04T18:59:02Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - 3D Scene Geometry-Aware Constraint for Camera Localization with Deep
Learning [11.599633757222406]
近年、畳み込みニューラルネットワークに基づくエンドツーエンドのアプローチは、従来の3次元幾何学に基づく手法を達成または超えるように研究されている。
本研究では,絶対カメラポーズ回帰のためのコンパクトネットワークを提案する。
これらの従来の手法から着想を得た3Dシーンの幾何学的制約も、動き、深さ、画像の内容を含むすべての利用可能な情報を活用することによって導入される。
論文 参考訳(メタデータ) (2020-05-13T04:15:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。