論文の概要: Physical Annotation for Automated Optical Inspection: A Concept for In-Situ, Pointer-Based Trainingdata Generation
- arxiv url: http://arxiv.org/abs/2506.05026v1
- Date: Thu, 05 Jun 2025 13:37:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.731596
- Title: Physical Annotation for Automated Optical Inspection: A Concept for In-Situ, Pointer-Based Trainingdata Generation
- Title(参考訳): 自動光学検査のための物理アノテーション:インサイト・ポインターに基づくトレーニングデータ生成の概念
- Authors: Oliver Krumpek, Oliver Heimann, Jörg Krüger,
- Abstract要約: 本稿では,自動視線検査のためのトレーニングデータを生成するための新しい物理アノテーションシステムを提案する。
このシステムは、ポインタベースのin-situインタラクションを使用して、訓練された検査担当者の貴重な専門知識を直接機械学習(ML)トレーニングパイプラインに転送する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a novel physical annotation system designed to generate training data for automated optical inspection. The system uses pointer-based in-situ interaction to transfer the valuable expertise of trained inspection personnel directly into a machine learning (ML) training pipeline. Unlike conventional screen-based annotation methods, our system captures physical trajectories and contours directly on the object, providing a more intuitive and efficient way to label data. The core technology uses calibrated, tracked pointers to accurately record user input and transform these spatial interactions into standardised annotation formats that are compatible with open-source annotation software. Additionally, a simple projector-based interface projects visual guidance onto the object to assist users during the annotation process, ensuring greater accuracy and consistency. The proposed concept bridges the gap between human expertise and automated data generation, enabling non-IT experts to contribute to the ML training pipeline and preventing the loss of valuable training samples. Preliminary evaluation results confirm the feasibility of capturing detailed annotation trajectories and demonstrate that integration with CVAT streamlines the workflow for subsequent ML tasks. This paper details the system architecture, calibration procedures and interface design, and discusses its potential contribution to future ML data generation for automated optical inspection.
- Abstract(参考訳): 本稿では,自動視線検査のためのトレーニングデータを生成するための新しい物理アノテーションシステムを提案する。
このシステムは、ポインタベースのin-situインタラクションを使用して、訓練された検査担当者の貴重な専門知識を直接機械学習(ML)トレーニングパイプラインに転送する。
従来のスクリーンベースのアノテーション手法とは異なり、本システムはオブジェクトの物理的軌跡や輪郭を直接キャプチャし、より直感的で効率的なラベル付け方法を提供する。
コア技術は校正された追跡ポインタを使用して、ユーザの入力を正確に記録し、これらの空間的相互作用をオープンソースアノテーションソフトウェアと互換性のある標準化されたアノテーション形式に変換する。
さらに、シンプルなプロジェクタベースのインターフェイスがオブジェクトに視覚的なガイダンスを投影し、アノテーションプロセス中にユーザを支援する。
提案されたコンセプトは、人間の専門知識と自動データ生成のギャップを埋め、IT専門家以外の専門家がMLトレーニングパイプラインにコントリビュートし、貴重なトレーニングサンプルの損失を防ぐ。
予備評価結果は、詳細なアノテーショントラジェクトリをキャプチャ可能な可能性を確認し、CVATとの統合がその後のMLタスクのワークフローを合理化することを示す。
本稿では、システムアーキテクチャ、校正手順、インタフェース設計について詳述し、自動光学検査における将来のMLデータ生成への潜在的貢献について論じる。
関連論文リスト
- Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - Development of an NLP-driven computer-based test guide for visually
impaired students [0.28647133890966986]
視覚障害者のためのNLP駆動型コンピュータベーステストガイドを提案する。
リアルタイムの支援と視覚障害のある生徒への支援を提供するために、事前に訓練された音声技術を採用している。
論文 参考訳(メタデータ) (2024-01-22T21:59:00Z) - Towards Automatic Translation of Machine Learning Visual Insights to
Analytical Assertions [23.535630175567146]
機械学習(ML)の可視化で観察される視覚特性をPythonアサーションに変換する自動化ツールを開発するためのビジョンを提示する。
このツールは、ML開発サイクルでこれらの視覚化を手作業で検証するプロセスの合理化を目的としている。
論文 参考訳(メタデータ) (2024-01-15T14:11:59Z) - Model-Driven Engineering Method to Support the Formalization of Machine
Learning using SysML [0.0]
本研究は,モデルベース工学を活用した機械学習タスクの協調的定義を支援する手法を提案する。
この方法は、様々なデータソースの識別と統合、データ属性間のセマンティックな関係の定義、データ処理ステップの定義をサポートする。
論文 参考訳(メタデータ) (2023-07-10T11:33:46Z) - Benchmarking Automated Machine Learning Methods for Price Forecasting
Applications [58.720142291102135]
自動機械学習(AutoML)ソリューションで手作業で作成したMLパイプラインを置換する可能性を示す。
CRISP-DMプロセスに基づいて,手動MLパイプラインを機械学習と非機械学習に分割した。
本稿では、価格予測の産業利用事例として、ドメイン知識とAutoMLを組み合わせることで、ML専門家への依存が弱まることを示す。
論文 参考訳(メタデータ) (2023-04-28T10:27:38Z) - Planning for Learning Object Properties [117.27898922118946]
我々は、物体特性を象徴的な計画問題として認識するために、ニューラルネットワークを自動的に訓練する問題を定式化する。
トレーニングデータセット作成と学習プロセスを自動化するための戦略を作成するために,計画手法を使用します。
シミュレーションと実環境の両方で実験的な評価を行う。
論文 参考訳(メタデータ) (2023-01-15T09:37:55Z) - Feature Visualization within an Automated Design Assessment leveraging
Explainable Artificial Intelligence Methods [0.0]
3次元CADデータから駆動されるディープラーニングシステムによって主に活用される自動能力評価について紹介した。
現在の評価システムは、抽象的な特徴に関してCADデータを評価することができるが、システム決定の理由に関する幾何学的な指標は持っていない。
NeuroCADプロジェクト内では、ある抽象的特徴に関連する幾何学的特徴を特定するためにxAIメソッドが使用される。
論文 参考訳(メタデータ) (2022-01-28T13:31:42Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Visual Transformer for Task-aware Active Learning [49.903358393660724]
プールベースのアクティブラーニングのための新しいパイプラインを提案する。
提案手法は,学習中に使用可能なアンラベリング例を利用して,ラベル付き例との相関関係を推定する。
ビジュアルトランスフォーマーは、ラベル付き例と非ラベル付き例の間の非ローカルビジュアル概念依存性をモデル化する。
論文 参考訳(メタデータ) (2021-06-07T17:13:59Z) - Federated Self-Supervised Learning of Multi-Sensor Representations for
Embedded Intelligence [8.110949636804772]
スマートフォン、ウェアラブル、IoT(Internet of Things)デバイスは、教師付きモデルを学習するための集中リポジトリに蓄積できない豊富なデータを生成する。
本稿では,ウェーブレット変換に基づくテキストカルグラム・信号対応学習という自己教師付きアプローチを提案し,ラベルなしセンサ入力から有用な表現を学習する。
さまざまなパブリックデータセットのマルチビュー戦略を用いて,学習機能の品質を広範囲に評価し,すべての領域で高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-07-25T21:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。