論文の概要: On partitioning of an SHM problem and parallels with transfer learning
- arxiv url: http://arxiv.org/abs/2203.01655v1
- Date: Thu, 3 Mar 2022 11:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 17:06:00.469321
- Title: On partitioning of an SHM problem and parallels with transfer learning
- Title(参考訳): SHM問題の分割と伝達学習の並列性について
- Authors: G. Tsialiamanis, D.J. Wagg, P.A. Gardner, N. Dervilis, K. Worden
- Abstract要約: 構造的健康モニタリング問題に対して,伝達学習を動機とする問題分割手法とスキームを適用した。
この場合の特定の問題は、航空機の翼の損傷の局所化である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the current work, a problem-splitting approach and a scheme motivated by
transfer learning is applied to a structural health monitoring problem. The
specific problem in this case is that of localising damage on an aircraft wing.
The original experiment is described, together with the initial approach, in
which a neural network was trained to localise damage. The results were not
ideal, partly because of a scarcity of training data, and partly because of the
difficulty in resolving two of the damage cases. In the current paper, the
problem is split into two sub-problems and an increase in classification
accuracy is obtained. The sub-problems are obtained by separating out the most
difficult-to-classify damage cases. A second approach to the problem is
considered by adopting ideas from transfer learning (usually applied in much
deeper) networks to see if a network trained on the simpler damage cases can
help with feature extraction in the more difficult cases. The transfer of a
fixed trained batch of layers between the networks is found to improve
classification by making the classes more separable in the feature space and to
speed up convergence.
- Abstract(参考訳): 本研究では, 構造的健康モニタリング問題に対して, 問題分割アプローチと転校学習を動機とするスキームを適用した。
この場合の特定の問題は航空機の翼に損傷を与えることである。
最初の実験は、ニューラルネットワークが損傷をローカライズするために訓練された最初のアプローチと共に記述された。
結果が理想的ではなかったのは,トレーニングデータの不足と,2件の損傷の解決が困難であったためである。
本論文では,問題を2つのサブプロブレムに分割し,分類精度の向上を図る。
サブプロブレムは、最も分類が難しい損傷事例を分離して得られる。
この問題に対する第2のアプローチは、より単純なダメージケースでトレーニングされたネットワークが、より難しいケースで特徴抽出に役立つかどうかを確認するために、転送学習(通常より深いネットワークで適用される)のアイデアを採用することである。
ネットワーク間の固定トレーニングされたレイヤーの転送は、特徴空間においてクラスをより分離可能とし、収束を早めることによって分類を改善する。
関連論文リスト
- Predicting Crack Nucleation and Propagation in Brittle Materials Using Deep Operator Networks with Diverse Trunk Architectures [1.5728609542259502]
我々は分岐ネットワークとトランクネットワークからなるディープニューラル演算子(DeepONet)を用いて脆性破壊問題を解決する。
最初のアプローチでは,2段階のDeepONetの有効性を示す。
第2のアプローチでは、物理インフォームドされたDeepONetを用いて、エネルギーの数学的表現をトランクネットワークの損失に統合し、物理的一貫性を強制する。
第3のアプローチでは、トランク内のニューラルネットワークをコルモゴロフ・アルノルドネットワークに置き換え、物理損失なしにトレーニングする。
論文 参考訳(メタデータ) (2024-12-15T02:50:30Z) - Towards Fast and Stable Federated Learning: Confronting Heterogeneity
via Knowledge Anchor [18.696420390977863]
本稿では,異なる通信ラウンド間の局所訓練において,各クラスを忘れる程度を系統的に分析する。
これらの知見に触発され,FedKA(Federated Knowledge Anchor)と呼ばれる新しい,簡単なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-05T01:12:56Z) - Common Knowledge Learning for Generating Transferable Adversarial
Examples [60.1287733223249]
本稿では,代用(ソース)モデルにより敵のサンプルを生成するブラックボックス攻撃の重要タイプに着目した。
既存の手法では、ソースモデルとターゲットモデルが異なるタイプのDNNアーキテクチャのものである場合、不満足な逆転が生じる傾向にある。
本稿では,より優れたネットワーク重みを学習し,敵対的な例を生成するための共通知識学習(CKL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-01T09:07:12Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Training Adaptive Reconstruction Networks for Blind Inverse Problems [0.0]
本研究では,ネットワークをフォワード演算子のファミリーでトレーニングすることで,再構成品質を著しく向上させることなく適応性問題を解くことができることを示す。
実験には、感度推定とオフ共鳴効果を備えたMRI(MRI)による部分フーリエサンプリング問題、傾斜した形状のコンピュータ断層撮影(CT)、フレネル回折核による画像劣化などが含まれる。
論文 参考訳(メタデータ) (2022-02-23T07:56:02Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - Step-Ahead Error Feedback for Distributed Training with Compressed
Gradient [99.42912552638168]
集中型分散トレーニングにおける局所的エラーフィードバックによって,新たな"段階的ミスマッチ"問題が発生することを示す。
本稿では, 厳密な理論的解析を施した2つの新しい手法, 1) 一歩前進, 2) 誤差平均化を提案する。
論文 参考訳(メタデータ) (2020-08-13T11:21:07Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Few-Shot Learning as Domain Adaptation: Algorithm and Analysis [120.75020271706978]
わずかながらの学習は、目に見えないクラスを認識するために、目に見えないクラスから学んだ事前知識を使用する。
このクラス差による分布シフトは、ドメインシフトの特別なケースとみなすことができる。
メタラーニングフレームワークにおいて、そのようなドメインシフト問題に明示的に対処するために、注意を向けたプロトタイプドメイン適応ネットワーク(DAPNA)を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。