論文の概要: Automatic Detection of Injection and Press Mold Parts on 2D Drawing
Using Deep Neural Network
- arxiv url: http://arxiv.org/abs/2110.11593v1
- Date: Fri, 22 Oct 2021 05:20:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 00:09:20.735270
- Title: Automatic Detection of Injection and Press Mold Parts on 2D Drawing
Using Deep Neural Network
- Title(参考訳): ディープニューラルネットワークを用いた2次元描画における射出成形部品の自動検出
- Authors: Junseok Lee, Jongwon Kim, Jumi Park, Seunghyeok Back, Seongho Bak,
Kyoobin Lee
- Abstract要約: DPS, Embo-Screwless, Embo-Burring, EMBOなどの注入部品を2次元CAD描画画像で検出できるディープラーニングパイプラインを開発した。
その結果, 平均精度が84.1%, ARが91.2%, APが72.0%, ARが87.0%, 射出方向が94.4%, プレス部が92.0%であった。
- 参考スコア(独自算出の注目度): 1.3212032015497979
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a method to automatically detect the key feature parts in
a CAD of commercial TV and monitor using a deep neural network. We developed a
deep learning pipeline that can detect the injection parts such as hook, boss,
undercut and press parts such as DPS, Embo-Screwless, Embo-Burring, and EMBO in
the 2D CAD drawing images. We first cropped the drawing to a specific size for
the training efficiency of a deep neural network. Then, we use Cascade R-CNN to
find the position of injection and press parts and use Resnet-50 to predict the
orientation of the parts. Finally, we convert the position of the parts found
through the cropped image to the position of the original image. As a result,
we obtained detection accuracy of injection and press parts with 84.1% in AP
(Average Precision), 91.2% in AR(Average Recall), 72.0% in AP, 87.0% in AR, and
orientation accuracy of injection and press parts with 94.4% and 92.0%, which
can facilitate the faster design in industrial product design.
- Abstract(参考訳): 本稿では,商用テレビのCADにおける重要な特徴を自動的に検出し,ディープニューラルネットワークを用いてモニタする手法を提案する。
2dcad描画画像において,フック,ボス,アンダーカット,dps,embo-screwless,embo-burring,emboなどのインジェクション部分を検出するディープラーニングパイプラインを開発した。
まず、深層ニューラルネットワークのトレーニング効率のために、図面を特定のサイズに絞り込みました。
次に、カスケードR-CNNを用いて射出位置と押出部品の位置を見つけ、Resnet-50を用いて部品の向きを予測する。
最後に、切り抜いた画像から見つかった部分の位置を原画像の位置に変換する。
その結果,ap(平均精度)84.1%,ar(平均リコール)91.2%,ap(平均リコール)72.0%,ar87.0%,94.4%,92.0%の射出プレス部品の検出精度が得られ,工業製品設計の高速化が図られた。
関連論文リスト
- Automated visual inspection of CMS HGCAL silicon sensor surface using an
ensemble of a deep convolutional autoencoder and classifier [1.6626046865692057]
センサ表面の異常なイメージをリアルタイムで事前に選択するディープラーニングベースのアルゴリズムを開発した。
この性能は、製造時に取得した画像に基づいて評価される。
予備選考では、人間の検査を必要とする画像の数を85%減らし、リコール率は97%となった。
論文 参考訳(メタデータ) (2023-03-09T11:54:55Z) - Gastrointestinal Polyps and Tumors Detection Based on Multi-scale
Feature-fusion with WCE Sequences [0.0]
本稿では,小腸ポリープと腫瘍を自動的に検出するtextbfTwo-stage textbfMulti-scale textbfFeature-fusion Learning Network(textbfTMFNet)を提案する。
実験では22,335個のWCE画像を用いて,123,092個の病変領域を用いて検出の枠組みを訓練した。
論文 参考訳(メタデータ) (2022-04-03T07:24:50Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Automated Pulmonary Embolism Detection from CTPA Images Using an
End-to-End Convolutional Neural Network [31.58557856188164]
本研究では,肺塞栓症(PE)検出のための終末から終末までトレーニング可能な畳み込みニューラルネットワーク(CNN)を提案する。
本システムでは,0mm,2mm,5mmで1体積あたりの偽陽性が63.2%,78.9%,86.8%であった。
論文 参考訳(メタデータ) (2021-11-10T03:01:55Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - A 1D-CNN Based Deep Learning Technique for Sleep Apnea Detection in IoT
Sensors [3.2116198597240846]
本稿では,ウェアラブルデバイスから取得した心電図(ECG)信号から呼吸時無呼吸検出のための新しい手法を提案する。
この新しさは、秒単位の高分解能の無呼吸検出に起因している。
このモデルはいくつかの低分解能アパネ検出法より優れる。
論文 参考訳(メタデータ) (2021-05-02T18:35:57Z) - Hessian-Aware Pruning and Optimal Neural Implant [74.3282611517773]
プルーニングは、ニューラルネットワークモデルに関連するメモリフットプリントとフラップを減らす効果的な方法である。
構造的プルーニングの指標として2次感度を用いたニューラルインプラントアプローチと組み合わされた新しいヘッセン認識プルーニング法を提案する。
論文 参考訳(メタデータ) (2021-01-22T04:08:03Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Automated Detection of COVID-19 from CT Scans Using Convolutional Neural
Networks [0.0]
COVID-19はSARS-CoV 2003と同様の呼吸器障害を引き起こす感染症である。
U-Netアーキテクチャを用いて2次元セグメンテーションモデルを構築し,感染領域をマークアウトして出力する。
論文 参考訳(メタデータ) (2020-06-23T06:50:41Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。