論文の概要: Deep Learning based Intelligent Coin-tap Test for Defect Recognition
- arxiv url: http://arxiv.org/abs/2203.12594v1
- Date: Sun, 20 Mar 2022 04:48:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 16:23:23.473702
- Title: Deep Learning based Intelligent Coin-tap Test for Defect Recognition
- Title(参考訳): 深層学習に基づく欠陥認識のためのIntelligent Coin-tap Test
- Authors: Hongyu Li, Peng Jiang, Tiejun Wang
- Abstract要約: コインタップテストは非破壊試験に便利で第一の方法であり、手動のオンサイト操作は困難でコストがかかる。
最新の知的信号処理手法である畳み込みニューラルネットワーク(CNN)の助けを借りて、欠陥を認識する上で優れた性能を示すインテリジェントコインタップテストを実現した。
本稿では,あるシナリオのデータに基づいて訓練されたモデルを別のシナリオに転送する,この問題に対する伝達学習戦略について述べる。
- 参考スコア(独自算出の注目度): 10.933776776458902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The coin-tap test is a convenient and primary method for non-destructive
testing, while its manual on-site operation is tough and costly. With the help
of the latest intelligent signal processing method, convolutional neural
networks (CNN), we achieve an intelligent coin-tap test which exhibited
superior performance in recognizing the defects. However, this success of CNNs
relies on plenty of well-labeled data from the identical scenario, which could
be difficult to get for many real industrial practices. This paper further
develops transfer learning strategies for this issue, that is, to transfer the
model trained on data of one scenario to another. In experiments, the result
presents a notable improvement by using domain adaptation and pseudo label
learning strategies. Hence, it becomes possible to apply the model into
scenarios with none or little (less than 10\%) labeled data adopting the
transfer learning strategies proposed herein. In addition, we used a benchmark
dataset constructed ourselves throughout this study. This benchmark dataset for
the coin-tap test containing around 100,000 sound signals is published at
https://github.com/PPhub-hy/torch-tapnet.
- Abstract(参考訳): コインタップテストは非破壊試験に便利で第一の方法であり、手動の現場操作は困難でコストがかかる。
最新の知的信号処理手法である畳み込みニューラルネットワーク(CNN)の助けを借りて、欠陥を認識する上で優れた性能を示すインテリジェントコインタップテストを実現する。
しかし、CNNの成功は、同じシナリオから得られる多くのラベル付きデータに依存している。
本稿では,あるシナリオのデータに基づいて訓練されたモデルを別のシナリオに転送する,この問題の伝達学習戦略をさらに発展させる。
実験では、ドメイン適応と擬似ラベル学習戦略を用いて顕著な改善が得られた。
したがって、ここで提案する転送学習戦略を適用すれば、(10\%未満の)ラベル付きデータを含むシナリオにモデルを適用することが可能となる。
さらに、この研究で構築されたベンチマークデータセットも使用しました。
約10万の音声信号を含むコインタップテストのベンチマークデータセットはhttps://github.com/PPhub-hy/torch-tapnet.comで公開されている。
関連論文リスト
- Improving Representational Continuity via Continued Pretraining [76.29171039601948]
トランスファーラーニングコミュニティ(LP-FT)は、ナイーブトレーニングやその他の継続的な学習方法よりも優れている。
LP-FTは、リアルタイム衛星リモートセンシングデータセット(FMoW)における忘れを減らす。
LP-FTの変種は、NLP連続学習ベンチマークで最先端の精度を得る。
論文 参考訳(メタデータ) (2023-02-26T10:39:38Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - Efficient Testing of Deep Neural Networks via Decision Boundary Analysis [28.868479656437145]
我々は、新しいラベルのないデータに基づいてDNNの性能を推定できるAriesという新しい手法を提案する。
Aries による推定精度は 0.03% -- 2.60% (平均 0.61%) しか真の精度から外れていない。
論文 参考訳(メタデータ) (2022-07-22T08:39:10Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Labeling-Free Comparison Testing of Deep Learning Models [28.47632100019289]
本研究では,ラベリング作業の限界を克服し,ランダム性をサンプリングするためのラベリングフリー比較試験手法を提案する。
提案手法は,データセットや分布シフトに関わらず,Spearmanの相関値とKendallの$tau$に対して,最大0.74および0.53のベースライン手法より優れている。
論文 参考訳(メタデータ) (2022-04-08T10:55:45Z) - What Stops Learning-based 3D Registration from Working in the Real
World? [53.68326201131434]
この研究は、3Dポイントのクラウド登録失敗の原因を特定し、その原因を分析し、解決策を提案する。
最終的に、これは最も実践的な3D登録ネットワーク(BPNet)に変換される。
我々のモデルは微調整をせずに実データに一般化し、商用センサで得られた見えない物体の点雲上で最大67%の精度に達する。
論文 参考訳(メタデータ) (2021-11-19T19:24:27Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - OvA-INN: Continual Learning with Invertible Neural Networks [0.0]
OvA-INNは、一度に1つのクラスを学習でき、以前のデータを格納しない。
特徴抽出器上にInvertible Networkを積み重ねることで,事前学習モデルの活用が可能であることを示す。
論文 参考訳(メタデータ) (2020-06-24T14:40:05Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。