論文の概要: Knowledge transfer between bridges for drive-by monitoring using
adversarial and multi-task learning
- arxiv url: http://arxiv.org/abs/2006.03641v1
- Date: Fri, 5 Jun 2020 19:18:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 04:01:01.942425
- Title: Knowledge transfer between bridges for drive-by monitoring using
adversarial and multi-task learning
- Title(参考訳): 逆学習とマルチタスク学習を用いた駆動監視用ブリッジ間の知識伝達
- Authors: Jingxiao Liu, Mario Berg\'es, Jacobo Bielak, Hae Young Noh
- Abstract要約: 車両の振動による橋梁の健康状態のモニタリングには、低コストや直接設置や設備の現場メンテナンスの必要がないなど、様々な利点がある。
このようなアプローチの多くは、すべての橋からのラベル付きデータを必要としており、これは高価で、不可能ではないとしても、入手するのに時間を要する。
ドメイン・アドバイザリ・トレーニングとマルチタスク・ラーニングを用いたトランスファー・ラーニング・フレームワークを導入し,損傷の検出,局所化,定量化を行う。
- 参考スコア(独自算出の注目度): 6.462702225377603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monitoring bridge health using the vibrations of drive-by vehicles has
various benefits, such as low cost and no need for direct installation or
on-site maintenance of equipment on the bridge. However, many such approaches
require labeled data from every bridge, which is expensive and time-consuming,
if not impossible, to obtain. This is further exacerbated by having multiple
diagnostic tasks, such as damage quantification and localization. One way to
address this issue is to directly apply the supervised model trained for one
bridge to other bridges, although this may significantly reduce the accuracy
because of distribution mismatch between different bridges'data. To alleviate
these problems, we introduce a transfer learning framework using
domain-adversarial training and multi-task learning to detect, localize and
quantify damage. Specifically, we train a deep network in an adversarial way to
learn features that are 1) sensitive to damage and 2) invariant to different
bridges. In addition, to improve the error propagation from one task to the
next, our framework learns shared features for all the tasks using multi-task
learning. We evaluate our framework using lab-scale experiments with two
different bridges. On average, our framework achieves 94%, 97% and 84% accuracy
for damage detection, localization and quantification, respectively. within one
damage severity level.
- Abstract(参考訳): 車両の振動による橋梁の健康状態のモニタリングには、低コスト化や直接設置の不要化、橋梁の設備のオンサイトメンテナンスなど様々な利点がある。
しかし、このようなアプローチの多くは、橋のラベル付きデータを必要としており、これは高価で、不可能ではないとしても、入手するのに時間がかかる。
これは、ダメージ定量化や局所化といった複数の診断タスクによってさらに悪化する。
この問題に対処する方法の1つは、ある橋で訓練された教師付きモデルを他の橋に直接適用することであるが、異なる橋のデータ間の分散ミスマッチのため、精度が大幅に低下する可能性がある。
これらの問題を緩和するために、ドメイン・アドバイザリ・トレーニングとマルチタスク・ラーニングを用いた伝達学習フレームワークを導入し、損傷を検出し、局所化し、定量化する。
具体的には、敵対的な方法で深いネットワークをトレーニングして、機能を学ぶ。
1)被害に敏感で
2)異なる橋に不変である。
さらに,あるタスクから次のタスクへのエラー伝搬を改善するために,マルチタスク学習を用いて,タスクの共有機能について学習する。
2つの異なる橋を用いたラボスケール実験を用いて, フレームワークの評価を行った。
平均して, 損傷検出, 局所化, 定量化の精度は, 94%, 97%, 84%であった。
ダメージのレベルは1つ。
関連論文リスト
- SHM-Traffic: DRL and Transfer learning based UAV Control for Structural
Health Monitoring of Bridges with Traffic [0.0]
本研究は,橋梁における構造的健康モニタリング(SHM)の高度化に焦点をあてる。
無人航空機(UAV)の深部強化学習(DRL)に基づく制御手法を提案する。
本手法は,交通が進行している間にコンクリート橋脚の調査を行い,ひび割れを検知する。
我々は、CNNが最大12%のダメージ検出と1.8倍の報酬で、Cannyエッジ検出器がタスク完了時間を最大40%短縮するのを観察した。
論文 参考訳(メタデータ) (2024-02-22T18:19:45Z) - Active Foundational Models for Fault Diagnosis of Electrical Motors [0.5999777817331317]
電気モーターの故障検出と診断は、産業システムの安全かつ信頼性の高い運転を保証する上で最も重要である。
マシン故障診断のための既存のデータ駆動ディープラーニングアプローチは、大量のラベル付きサンプルに大きく依存している。
ラベル付きサンプルを少ない量で活用する基礎モデルに基づくアクティブラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-27T03:25:12Z) - BridgeData V2: A Dataset for Robot Learning at Scale [73.86688388408021]
BridgeData V2は、ロボット操作行動の大規模で多様なデータセットである。
対象は、24の環境にまたがる60,096個のトラジェクトリだ。
論文 参考訳(メタデータ) (2023-08-24T17:41:20Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - A Multitask Deep Learning Model for Parsing Bridge Elements and
Segmenting Defect in Bridge Inspection Images [1.476043573732074]
合衆国の広大な橋網は、その維持と修復に高い要求を課している。
橋の状況を評価するための視覚検査の膨大なコストは、ある程度の負担であることが判明した。
本稿では,橋梁要素と欠陥の相互依存性を完全に活用するマルチタスクディープニューラルネットワークを開発する。
論文 参考訳(メタデータ) (2022-09-06T02:48:15Z) - HierMUD: Hierarchical Multi-task Unsupervised Domain Adaptation between
Bridges for Drive-by Damage Diagnosis [9.261126434781744]
対象橋のラベルを使わずに,橋梁の損傷を診断するために,ある橋梁から学習したモデルを転送する新しい枠組みを提案する。
我々のフレームワークは、タスク共有とタスク固有の特徴を抽出するために、逆方向の方法で階層型ニューラルネットワークモデルを訓練する。
2つの橋と3台の車両から収集した実験データについて,本フレームワークの評価を行った。
論文 参考訳(メタデータ) (2021-07-23T19:39:32Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z) - Damage-sensitive and domain-invariant feature extraction for
vehicle-vibration-based bridge health monitoring [25.17078512102496]
本稿では,車両の加速度応答データから損傷感受性・領域不変性(DS&DI)特徴を抽出する物理誘導信号処理手法を提案する。
この特徴は,6つの実験のうち5つの実験において,橋梁にまたがる最高の損傷および局所化結果を提供する。
論文 参考訳(メタデータ) (2020-02-06T05:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。