論文の概要: 3D-EDM: Early Detection Model for 3D-Printer Faults
- arxiv url: http://arxiv.org/abs/2203.12147v1
- Date: Wed, 23 Mar 2022 02:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 08:01:51.069533
- Title: 3D-EDM: Early Detection Model for 3D-Printer Faults
- Title(参考訳): 3D-EDM:3Dプリント断層の早期検出モデル
- Authors: Harim Jeong, Joo Hun Yoo
- Abstract要約: 正確なキャリブレーションを施した3Dプリンタを使用するのは難しい。
従来の研究では、センサデータと機械学習を用いた画像データを用いてこれらの問題を検出できることが示唆されている。
将来、実際の利用を考えると、収集が容易なデータによる軽量早期検出モデルの作成に重点を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advent of 3D printers in different price ranges and sizes, they are
no longer just for professionals. However, it is still challenging to use a 3D
printer perfectly. Especially, in the case of the Fused Deposition Method, it
is very difficult to perform with accurate calibration. Previous studies have
suggested that these problems can be detected using sensor data and image data
with machine learning methods. However, there are difficulties to apply the
proposed method due to extra installation of additional sensors. Considering
actual use in the future, we focus on generating the lightweight early
detection model with easily collectable data. Proposed early detection model
through Convolutional Neural Network shows significant fault classification
accuracy with 96.72% for the binary classification task, and 93.38% for
multi-classification task respectively. By this research, we hope that general
users of 3D printers can use the printer accurately.
- Abstract(参考訳): さまざまな価格帯とサイズで3Dプリンターが登場し、もはやプロだけに限ったものではない。
しかし、3Dプリンタを完璧に使うのは難しい。
特に, 融解法の場合, 正確な校正を行うのは非常に困難である。
従来の研究では、センサデータと機械学習を用いた画像データを用いてこれらの問題を検出できることが示唆されている。
しかし,追加センサの設置により,提案手法の適用は困難である。
将来、実際の利用を考えると、収集が容易なデータによる軽量早期検出モデルの作成に注力する。
畳み込みニューラルネットワークによる早期検出モデルでは,2進分類タスクが96.72%,マルチ分類タスクが93.38%という有意な故障分類精度を示した。
本研究では,3dプリンタの一般ユーザがプリンタを正確に利用できることを期待する。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Calib3D: Calibrating Model Preferences for Reliable 3D Scene Understanding [55.32861154245772]
Calib3Dは3Dシーン理解モデルの信頼性をベンチマークし精査する先駆的な試みである。
10種類の3Dデータセットにわたる28の最先端モデルを評価した。
本稿では,3次元モデルのキャリブレーション向上を目的とした,深度対応のスケーリング手法であるDeptSを紹介する。
論文 参考訳(メタデータ) (2024-03-25T17:59:59Z) - FocalFormer3D : Focusing on Hard Instance for 3D Object Detection [97.56185033488168]
3次元物体検出における偽陰性(False negatives, FN)は、自動運転において潜在的に危険な状況を引き起こす可能性がある。
本研究では,マルチステージ方式でtextitFN を識別する汎用パイプラインである Hard Instance Probing (HIP) を提案する。
この手法をFocalFormer3Dとしてインスタンス化する。
論文 参考訳(メタデータ) (2023-08-08T20:06:12Z) - MonoNext: A 3D Monocular Object Detection with ConvNext [69.33657875725747]
本稿では3次元物体検出のためのMonoNextと呼ばれる新しいマルチタスク学習手法を提案する。
MonoNextは、ConvNextネットワークに基づく直接的なアプローチを採用し、3Dバウンディングボックスデータのみを必要とする。
KITTIデータセットを用いた実験では,MonoNextは最先端のアプローチに匹敵する高精度かつ競争的な性能を達成した。
論文 参考訳(メタデータ) (2023-08-01T15:15:40Z) - Instant Multi-View Head Capture through Learnable Registration [62.70443641907766]
3次元頭部のデータセットを密接なセマンティック通信でキャプチャする既存の手法は遅い。
キャリブレーションされたマルチビュー画像から3Dヘッドを直接推定するためにTEMPEHを導入する。
1つの頭部の予測には0.3秒かかるが、中央値の復元誤差は0.26mmで、現在の最先端よりも64%低い。
論文 参考訳(メタデータ) (2023-06-12T21:45:18Z) - Towards a Robust Sensor Fusion Step for 3D Object Detection on Corrupted
Data [4.3012765978447565]
この研究は、データの破損に対処し、3Dオブジェクト検出のためのセンサ融合をより堅牢にする新しい融合ステップを示す。
提案手法は,通常のデータに対する最先端手法と同等に動作し,不整合データに対して性能を向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T18:06:29Z) - Semi-Siamese Network for Robust Change Detection Across Different
Domains with Applications to 3D Printing [17.176767333354636]
本稿では3Dプリンティングプロセスにおける欠陥検出のための新しいセミ・シームズ深層学習モデルを提案する。
本モデルは,撮像装置の摂動に対して頑健でありながら,異なる領域からの異種画像の比較を可能にするように設計されている。
われわれのモデルでは、欠陥ローカライズ予測は標準のMacBook Proを使って1層あたり半秒未満で行うことができ、F1スコアは0.9以上である。
論文 参考訳(メタデータ) (2022-12-16T17:02:55Z) - LET-3D-AP: Longitudinal Error Tolerant 3D Average Precision for Camera-Only 3D Detection [26.278496981844317]
我々は,深度推定誤差に関して,より許容性の高い3次元APメトリックの変種を提案する。
具体的には, LET-3D-AP と LET-3D-APL という新しい長手誤差許容基準により, 所与の許容範囲までの長手局所化誤差を許容する。
最先端のカメラベースの検出器は、従来のLiDARベースの検出器よりも優れており、新しいメトリクスは10%の深度エラー耐性を超越している。
論文 参考訳(メタデータ) (2022-06-15T17:57:41Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z) - Fast mesh denoising with data driven normal filtering using deep
variational autoencoders [6.25118865553438]
本研究では,高密度3次元走査型産業モデルに対する高速で頑健な復調法を提案する。
提案手法は条件付き変分オートエンコーダを用いて顔正規化を効果的にフィルタする。
1e4面以上の3Dモデルでは、提示されたパイプラインは等価な再構成誤差を持つメソッドの2倍高速である。
論文 参考訳(メタデータ) (2021-11-24T20:25:15Z) - Is Pseudo-Lidar needed for Monocular 3D Object detection? [32.772699246216774]
我々は,擬似ライダー法のような深度事前学習の恩恵を受けることができるエンド・ツー・エンドの単分子3次元物体検出器DD3Dを提案する。
我々のアーキテクチャは、深度推定と3次元検出の効果的な情報伝達のために設計されており、ラベルなし事前学習データの量でスケールすることができる。
論文 参考訳(メタデータ) (2021-08-13T22:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。