論文の概要: Advancing from Automated to Autonomous Beamline by Leveraging Computer Vision
- arxiv url: http://arxiv.org/abs/2506.00836v1
- Date: Sun, 01 Jun 2025 04:53:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.693285
- Title: Advancing from Automated to Autonomous Beamline by Leveraging Computer Vision
- Title(参考訳): コンピュータビジョンの活用による自動ビームラインから自律ビームラインへの進化
- Authors: Baolu Li, Hongkai Yu, Huiming Sun, Jin Ma, Yuewei Lin, Lu Ma, Yonghua Du,
- Abstract要約: 現在の最先端のシンクロトロンビームは、人間の安全の監視に大きく依存している。
リアルタイム衝突検出のためのディープラーニングとマルチビューカメラを統合したコンピュータビジョンに基づくシステムを提案する。
実ビームラインデータセットの実験では、高精度、リアルタイムな性能、そして自律的なシンクロトロンビームライン操作の強いポテンシャルが示される。
- 参考スコア(独自算出の注目度): 16.747469612768917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The synchrotron light source, a cutting-edge large-scale user facility, requires autonomous synchrotron beamline operations, a crucial technique that should enable experiments to be conducted automatically, reliably, and safely with minimum human intervention. However, current state-of-the-art synchrotron beamlines still heavily rely on human safety oversight. To bridge the gap between automated and autonomous operation, a computer vision-based system is proposed, integrating deep learning and multiview cameras for real-time collision detection. The system utilizes equipment segmentation, tracking, and geometric analysis to assess potential collisions with transfer learning that enhances robustness. In addition, an interactive annotation module has been developed to improve the adaptability to new object classes. Experiments on a real beamline dataset demonstrate high accuracy, real-time performance, and strong potential for autonomous synchrotron beamline operations.
- Abstract(参考訳): 最先端の大規模ユーザ施設であるシンクロトロン光源は、自律的なシンクロトロンビームライン操作を必要としている。
しかし、現在の最先端のシンクロトロンビーム線は、人間の安全の監視に大きく依存している。
自動動作と自律動作のギャップを埋めるために,リアルタイム衝突検出のためのディープラーニングとマルチビューカメラを統合したコンピュータビジョンベースのシステムを提案する。
このシステムは機器のセグメンテーション、追跡、幾何解析を利用して、強靭性を高める伝達学習との潜在的な衝突を評価する。
さらに、新しいオブジェクトクラスへの適応性を改善するために、インタラクティブなアノテーションモジュールが開発されている。
実ビームラインデータセットの実験では、高精度、リアルタイムな性能、そして自律的なシンクロトロンビームライン操作の強いポテンシャルが示される。
関連論文リスト
- Learning Video Generation for Robotic Manipulation with Collaborative Trajectory Control [72.00655365269]
本稿では,協調的軌跡定式化を通じてオブジェクト間ダイナミクスをモデル化する新しいフレームワークであるRoboMasterを紹介する。
オブジェクトを分解する従来の方法とは異なり、我々のコアは、相互作用プロセスを3つのサブステージ(相互作用前、相互作用後、相互作用後)に分解することである。
提案手法は既存の手法よりも優れており,ロボット操作のための軌道制御ビデオ生成における最先端性能を確立している。
論文 参考訳(メタデータ) (2025-06-02T17:57:06Z) - Distance Estimation in Outdoor Driving Environments Using Phase-only Correlation Method with Event Cameras [5.690128924544198]
単眼イベントカメラと路面LEDバーを用いた距離推定手法を提案する。
提案手法は,20mから60mの範囲で0.5m以下の誤差で90%以上の成功率を達成する。
将来的には、LEDを備えたスマートポールなどのインフラを活用して、この手法を全位置推定に拡張する予定である。
論文 参考訳(メタデータ) (2025-05-23T07:44:33Z) - SOLVE: Synergy of Language-Vision and End-to-End Networks for Autonomous Driving [51.47621083057114]
SOLVEは、ビジョンランゲージモデルとエンド・ツー・エンド(E2E)モデルを相乗化して自動運転車の計画を強化する革新的なフレームワークである。
提案手法は,VLMとE2Eコンポーネント間の包括的インタラクションを実現するために,共有ビジュアルエンコーダによる機能レベルでの知識共有を重視している。
論文 参考訳(メタデータ) (2025-05-22T15:44:30Z) - A Survey of World Models for Autonomous Driving [63.33363128964687]
自律運転の最近の進歩は、堅牢な世界モデリングの進歩によって推進されている。
本稿では、自律運転の世界モデルにおける最近の進歩を体系的にレビューする。
論文 参考訳(メタデータ) (2025-01-20T04:00:02Z) - Robotic World Model: A Neural Network Simulator for Robust Policy Optimization in Robotics [50.191655141020505]
この研究は、長期水平予測、エラー蓄積、およびsim-to-real転送の課題に対処することで、モデルに基づく強化学習を前進させる。
スケーラブルでロバストなフレームワークを提供することで、現実のアプリケーションにおいて適応的で効率的なロボットシステムを実現することができる。
論文 参考訳(メタデータ) (2025-01-17T10:39:09Z) - A Self-Supervised Robotic System for Autonomous Contact-Based Spatial Mapping of Semiconductor Properties [40.361306070887366]
我々は、ロボットにドメインエキスパート測定の原則に従うように教えるコンタクトベースのロボットシステムに、自己監督型の自律性を構築する。
半導体光伝導性を特徴付けるために,4自由度ロボットプローブを24時間自律駆動することで,このアプローチの性能を実証する。
論文 参考訳(メタデータ) (2024-11-15T02:36:36Z) - Deep Learning-Based Robust Multi-Object Tracking via Fusion of mmWave Radar and Camera Sensors [6.166992288822812]
複雑なトラフィックシナリオを通じて、より安全で効率的なナビゲーションを実現する上で、マルチオブジェクトトラッキングは重要な役割を果たす。
本稿では,自律走行システムにおける複数物体追跡の精度とロバスト性を高めるために,レーダデータとカメラデータを統合した新しいディープラーニング方式を提案する。
論文 参考訳(メタデータ) (2024-07-10T21:09:09Z) - Self-Supervised Pillar Motion Learning for Autonomous Driving [10.921208239968827]
本研究では,点群からの自由監視信号と対カメラ画像を利用した学習フレームワークを提案する。
本モデルでは,確率的運動マスキングを付加した点雲に基づく構造整合性と,所望の自己超越を実現するためのクロスセンサ運動正規化を含む。
論文 参考訳(メタデータ) (2021-04-18T02:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。