論文の概要: Integrating Artificial Intelligence Models and Synthetic Image Data for Enhanced Asset Inspection and Defect Identification
- arxiv url: http://arxiv.org/abs/2410.11967v1
- Date: Tue, 15 Oct 2024 18:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:43:34.856946
- Title: Integrating Artificial Intelligence Models and Synthetic Image Data for Enhanced Asset Inspection and Defect Identification
- Title(参考訳): 人工知能モデルと合成画像データの統合によるアセット検査と欠陥同定
- Authors: Reddy Mandati, Vladyslav Anderson, Po-chen Chen, Ankush Agarwal, Tatjana Dokic, David Barnard, Michael Finn, Jesse Cromer, Andrew Mccauley, Clay Tutaj, Neha Dave, Bobby Besharati, Jamie Barnett, Timothy Krall,
- Abstract要約: 過去のユーティリティーは、資産欠陥を特定するためにフィールド内検査に頼っていた。
近年,フィールドインスペクション(フィールドインスペクション)のプロセスを強化するために,ドローンによる検査の導入が始まっている。
本稿では,合成資産欠陥画像と手動でラベル付けしたドローン画像を組み合わせた新しいソリューションを提案する。
- 参考スコア(独自算出の注目度): 0.44726766759482234
- License:
- Abstract: In the past utilities relied on in-field inspections to identify asset defects. Recently, utilities have started using drone-based inspections to enhance the field-inspection process. We consider a vast repository of drone images, providing a wealth of information about asset health and potential issues. However, making the collected imagery data useful for automated defect detection requires significant manual labeling effort. We propose a novel solution that combines synthetic asset defect images with manually labeled drone images. This solution has several benefits: improves performance of defect detection, reduces the number of hours spent on manual labeling, and enables the capability to generate realistic images of rare defects where not enough real-world data is available. We employ a workflow that combines 3D modeling tools such as Maya and Unreal Engine to create photorealistic 3D models and 2D renderings of defective assets and their surroundings. These synthetic images are then integrated into our training pipeline augmenting the real data. This study implements an end-to-end Artificial Intelligence solution to detect assets and asset defects from the combined imagery repository. The unique contribution of this research lies in the application of advanced computer vision models and the generation of photorealistic 3D renderings of defective assets, aiming to transform the asset inspection process. Our asset detection model has achieved an accuracy of 92 percent, we achieved a performance lift of 67 percent when introducing approximately 2,000 synthetic images of 2k resolution. In our tests, the defect detection model achieved an accuracy of 73 percent across two batches of images. Our analysis demonstrated that synthetic data can be successfully used in place of real-world manually labeled data to train defect detection model.
- Abstract(参考訳): 過去のユーティリティーは、資産欠陥を特定するためにフィールド内検査に頼っていた。
近年,フィールドインスペクション(フィールドインスペクション)のプロセスを強化するために,ドローンによる検査の導入が始まっている。
ドローン画像の膨大なリポジトリを検討し、資産の健全性や潜在的な問題について豊富な情報を提供しています。
しかし、収集した画像データを自動欠陥検出に役立てるためには、かなりの手作業が必要である。
本稿では,合成資産欠陥画像と手動でラベル付けしたドローン画像を組み合わせた新しいソリューションを提案する。
このソリューションには、欠陥検出のパフォーマンス向上、手動ラベリングに費やした時間削減、現実のデータが不十分な稀な欠陥の画像生成を可能にする、いくつかのメリットがある。
私たちは、マヤやUnreal Engineといった3Dモデリングツールを組み合わせて、フォトリアリスティックな3Dモデルを作成し、欠陥資産とその周辺を2Dレンダリングするワークフローを採用しています。
これらの合成画像は、実際のデータを増強するトレーニングパイプラインに統合されます。
本研究では、画像リポジトリから資産や資産の欠陥を検出するために、エンドツーエンドの人工知能ソリューションを実装した。
この研究の独特な貢献は、高度なコンピュータビジョンモデルの適用と欠陥資産のフォトリアリスティックな3Dレンダリングの生成であり、資産検査プロセスを変革することを目的としている。
我々の資産検出モデルは精度92%に達し、約2000枚の2k解像度の合成画像を導入して67%の性能向上を実現した。
我々のテストでは、欠陥検出モデルは2バッチの画像に対して73%の精度を達成した。
実世界のラベル付きデータの代わりに合成データをうまく利用し,欠陥検出モデルの学習に有効であることを示した。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - AssemAI: Interpretable Image-Based Anomaly Detection for Manufacturing Pipelines [0.0]
製造パイプラインにおける異常検出は、産業環境の複雑さと変動性によって強化され、依然として重要な課題である。
本稿では,スマート製造パイプラインに適した解釈可能な画像ベース異常検出システムAssemAIを紹介する。
論文 参考訳(メタデータ) (2024-08-05T01:50:09Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - An Empirical Study of Pseudo-Labeling for Image-based 3D Object
Detection [72.30883544352918]
異なる条件下で,擬似ラベルがベースラインモデルに対して効果的に監視できるかどうかを検討する。
ベルとホイッスルを使わずにKITTI-3Dテストセットの適度なレベルを20.23 APで達成し、ベースラインモデルを6.03 APで改善した。
この研究が、半教師付き環境下で画像に基づく3D検出コミュニティに洞察を与えてくれることを願っている。
論文 参考訳(メタデータ) (2022-08-15T12:17:46Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - Artificial and beneficial -- Exploiting artificial images for aerial
vehicle detection [1.4528189330418975]
本研究では,2次元cad描画から作成した車両を人工的あるいは実際の背景に重ね合わせてトップダウン画像を生成する生成手法を提案する。
修正されたRetinaNetオブジェクト検出ネットワークによる実験では、これらの画像を小さな実世界のデータセットに追加することで、検出パフォーマンスが大幅に向上することを示しています。
論文 参考訳(メタデータ) (2021-04-07T11:06:15Z) - Synthetic training data generation for deep learning based quality
inspection [0.0]
欠陥のある部分や正常な部分(欠陥のない部分)の画像を描画する汎用的なシミュレーションパイプラインを提案する。
深層学習ネットワークを訓練し、製造元からの実データでテストすることで、生成した画像の品質を評価する。
論文 参考訳(メタデータ) (2021-04-07T08:07:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。