論文の概要: Efficient Visual Fault Detection for Freight Train Braking System via
Heterogeneous Self Distillation in the Wild
- arxiv url: http://arxiv.org/abs/2307.00701v1
- Date: Mon, 3 Jul 2023 01:27:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 14:37:41.051797
- Title: Efficient Visual Fault Detection for Freight Train Braking System via
Heterogeneous Self Distillation in the Wild
- Title(参考訳): 野生における不均一自己蒸留による貨物列車ブレーキシステムの視覚異常検出
- Authors: Yang Zhang, Huilin Pan, Yang Zhou, Mingying Li, Guodong Sun
- Abstract要約: 本稿では,検出精度と速度を確保するため,不均一な自己蒸留フレームワークを提案する。
我々は,学習効率を向上させるために,ラベル付近の値にネットワークを集中させる新たな損失関数を用いる。
我々のフレームワークは毎秒37フレーム以上を達成でき、従来の蒸留法と比較して高い精度を維持することができる。
- 参考スコア(独自算出の注目度): 8.062167870951706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Efficient visual fault detection of freight trains is a critical part of
ensuring the safe operation of railways under the restricted hardware
environment. Although deep learning-based approaches have excelled in object
detection, the efficiency of freight train fault detection is still
insufficient to apply in real-world engineering. This paper proposes a
heterogeneous self-distillation framework to ensure detection accuracy and
speed while satisfying low resource requirements. The privileged information in
the output feature knowledge can be transferred from the teacher to the student
model through distillation to boost performance. We first adopt a lightweight
backbone to extract features and generate a new heterogeneous knowledge neck.
Such neck models positional information and long-range dependencies among
channels through parallel encoding to optimize feature extraction capabilities.
Then, we utilize the general distribution to obtain more credible and accurate
bounding box estimates. Finally, we employ a novel loss function that makes the
network easily concentrate on values near the label to improve learning
efficiency. Experiments on four fault datasets reveal that our framework can
achieve over 37 frames per second and maintain the highest accuracy in
comparison with traditional distillation approaches. Moreover, compared to
state-of-the-art methods, our framework demonstrates more competitive
performance with lower memory usage and the smallest model size.
- Abstract(参考訳): 貨物列車の効率的な視覚的故障検出は、制限されたハードウェア環境下での鉄道の安全運転を確保する重要な部分である。
深層学習に基づくアプローチは物体検出に優れているが, 実世界の工学に応用するには, 貨物列車の故障検出の効率が不十分である。
本稿では,低資源条件を満たしながら検出精度と速度を確保するための不均質な自己蒸留フレームワークを提案する。
出力特徴知識の特権情報は、蒸留により教師から生徒モデルに転送することができ、性能を高めることができる。
まず、軽量なバックボーンを用いて特徴を抽出し、新しいヘテロジニアスな知識ネックを生成する。
このようなネックは、チャネル間の位置情報と長距離依存性を並列符号化によってモデル化し、特徴抽出能力を最適化する。
次に,一般分布を用いて,より信頼性が高く正確な有界ボックス推定値を得る。
最後に,学習効率を向上させるために,ラベル近傍の値にネットワークを集中させる新たな損失関数を採用する。
4つのフォールトデータセットに関する実験により、我々のフレームワークは毎秒37フレーム以上を達成でき、従来の蒸留法と比較して高い精度を維持できることが分かりました。
さらに、最先端手法と比較して、メモリ使用量が少なく、モデルサイズが最小の、より競争力の高い性能を示す。
関連論文リスト
- Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - Spatial-wise Dynamic Distillation for MLP-like Efficient Visual Fault
Detection of Freight Trains [11.13191969085042]
貨物列車の故障検出のための多層パーセプトロン(MLP)に基づく動的蒸留フレームワークを提案する。
学生モデルとのセマンティックな相違を効果的に解消する動的教師を提案する。
提案手法は現在の最先端検出器より優れており,より少ない計算コストでリアルタイム検出を行うことができる。
論文 参考訳(メタデータ) (2023-12-10T09:18:24Z) - Learning Lightweight Object Detectors via Multi-Teacher Progressive
Distillation [56.053397775016755]
本稿では,教師検出器の知識を学生に段階的に伝達する,知識蒸留への逐次的アプローチを提案する。
私たちの知識を最大限に活用するために、私たちはTransformerベースの教師検出器から、畳み込みベースの学生まで、初めて知識を抽出しました。
論文 参考訳(メタデータ) (2023-08-17T17:17:08Z) - Self-Knowledge Distillation via Dropout [0.7883397954991659]
ドロップアウト(SD-Dropout)を用いた簡便かつ効果的な自己知識蒸留法を提案する。
我々の方法は、追加のトレーニング可能なモジュールを必要とせず、データに依存しず、単純な操作しか必要としない。
論文 参考訳(メタデータ) (2022-08-11T05:08:55Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Squeezing Backbone Feature Distributions to the Max for Efficient
Few-Shot Learning [3.1153758106426603]
ラベル付きサンプルの少ない使用によって生じる不確実性のため、ほとんどショット分類が難しい問題である。
本稿では,特徴ベクトルをガウス分布に近づけるように処理するトランスファーベース手法を提案する。
また,学習中に未学習のサンプルが利用可能となる多段階的数ショット学習では,達成された性能をさらに向上させる最適なトランスポートインスピレーションアルゴリズムも導入する。
論文 参考訳(メタデータ) (2021-10-18T16:29:17Z) - Automatic Detection of Rail Components via A Deep Convolutional
Transformer Network [7.557470133155959]
レール,クリップ,ボルトを含む多種鉄道部品を検出するための深層畳み込み変圧器ネットワーク方式を提案する。
提案手法は,アンカーボックス,アスペクト比,デフォルト座標,後処理などの事前設定を不要にすることで,検出パイプラインを単純化する。
総合的な計算結果から,提案手法は既存の最先端手法よりも大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2021-08-05T07:38:04Z) - A Unified Light Framework for Real-time Fault Detection of Freight Train
Images [16.721758280029302]
貨物列車のリアルタイム故障検出は、鉄道輸送の安全と最適運転を保証する上で重要な役割を担っている。
深層学習に基づくアプローチの有望な結果にもかかわらず、貨物列車画像におけるこれらの断層検出器の性能は精度と効率の両立には程遠い。
本稿では,リソース要求の少ないリアルタイム動作をサポートしながら,検出精度を向上させるための統一光フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-31T05:10:20Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z) - Circumventing Outliers of AutoAugment with Knowledge Distillation [102.25991455094832]
AutoAugmentは多くの視覚タスクの精度を向上させる強力なアルゴリズムである。
本論文は作業機構を深く掘り下げ,AutoAugmentがトレーニング画像から識別情報の一部を除去できることを明らかにする。
教師モデルの出力に言及した知識蒸留を用いて,ネットワークトレーニングの指導を行う。
論文 参考訳(メタデータ) (2020-03-25T11:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。