論文の概要: Joint Prediction of Remaining Useful Life and Failure Type of Train
Wheelsets: A Multi-task Learning Approach
- arxiv url: http://arxiv.org/abs/2101.03497v2
- Date: Wed, 20 Jan 2021 03:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 05:58:39.015244
- Title: Joint Prediction of Remaining Useful Life and Failure Type of Train
Wheelsets: A Multi-task Learning Approach
- Title(参考訳): 電車用ホイールセットの残存寿命と故障型に関する共同予測:マルチタスク学習によるアプローチ
- Authors: Weixin Wang
- Abstract要約: 列車の車輪の故障は列車の運行の中断および列車の脱線の大部分を占めます。
この2つのタスクを共通入力空間を用いて共同で実現するためのマルチタスク学習手法を提案する。
実験の結果,単一タスク学習法よりも予測精度が3%高いことがわかった。
- 参考スコア(独自算出の注目度): 0.10878040851637999
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The failures of train wheels account for disruptions of train operations and
even a large portion of train derailments. Remaining useful life (RUL) of a
wheelset measures the how soon the next failure will arrive, and the failure
type reveals how severe the failure will be. RUL prediction is a regression
task, whereas failure type is a classification task. In this paper, we propose
a multi-task learning approach to jointly accomplish these two tasks by using a
common input space to achieve more desirable results. We develop a convex
optimization formulation to integrate both least square loss and the negative
maximum likelihood of logistic regression, and model the joint sparsity as the
L2/L1 norm of the model parameters to couple feature selection across tasks.
The experiment results show that our method outperforms the single task
learning method by 3% in prediction accuracy.
- Abstract(参考訳): 列車の車輪の故障は、列車の運行の混乱や、多くの列車脱線の原因となっている。
ホイールセットの有用な寿命(RUL)は、次の障害がいつ到着するかを計測し、障害タイプは障害がどれほど深刻かを明らかにする。
RUL予測は回帰タスクであり、障害タイプは分類タスクである。
本稿では,共通入力空間を用いてより望ましい結果を得るために,これら2つのタスクを共同で達成するためのマルチタスク学習手法を提案する。
我々は,最小二乗損失とロジスティック回帰の負の最大可能性の両方を統合する凸最適化式を開発し,モデルパラメータのL2/L1ノルムとして結合空間をモデル化し,タスク間の特徴選択を結合する。
実験の結果,提案手法は1タスク学習法よりも予測精度が3%高いことがわかった。
関連論文リスト
- TaskMet: Task-Driven Metric Learning for Model Learning [29.0053868393653]
ディープラーニングモデルは、トレーニング手順が認識していない可能性のある下流タスクにデプロイされることが多い。
本稿では,モデルのパラメータよりも1段階深いタスク損失信号を用いて,モデルがトレーニングした損失関数のパラメータを学習する。
このアプローチは、最適な予測モデル自体を変更するのではなく、下流のタスクにとって重要な情報を強調するためにモデル学習を変更する。
論文 参考訳(メタデータ) (2023-12-08T18:59:03Z) - Making Pre-trained Language Models both Task-solvers and
Self-calibrators [52.98858650625623]
プレトレーニング言語モデル(PLM)は、様々な現実世界のシステムのバックボーンとして機能する。
以前の研究は、余分なキャリブレーションタスクを導入することでこの問題を緩和できることを示している。
課題に対処するためのトレーニングアルゴリズムLM-TOASTを提案する。
論文 参考訳(メタデータ) (2023-07-21T02:51:41Z) - Mitigating Negative Transfer in Multi-Task Learning with Exponential
Moving Average Loss Weighting Strategies [0.981328290471248]
MTL(Multi-Task Learning)は、ディープラーニングへの関心が高まっている分野である。
特定のタスクがトレーニングを支配し、他のタスクのパフォーマンスを損なう可能性があるため、MTLは実用的ではない。
指数移動平均によるスケーリングに基づく損失分散手法を提案する。
論文 参考訳(メタデータ) (2022-11-22T09:22:48Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Identifying Suitable Tasks for Inductive Transfer Through the Analysis
of Feature Attributions [78.55044112903148]
我々は、単一タスクモデル間のニューラルネットワークアクティベーションの比較を通じて、タスクペアが相補的になるかどうかを予測するために、説明可能性技術を使用する。
提案手法により,TREC-IS 2020-Aデータセットでは,正のクラスF1の0.034の削減に留まらず,最大83.5%のトレーニング時間を短縮することが可能である。
論文 参考訳(メタデータ) (2022-02-02T15:51:07Z) - Cross-Task Consistency Learning Framework for Multi-Task Learning [9.991706230252708]
2タスクMTL問題に対する新しい学習フレームワークを提案する。
サイクル一貫性損失とコントラスト学習に着想を得た2つの新たな損失項を定義する。
理論的には、どちらの損失もモデルをより効率的に学習する助けとなり、直進予測と整合する点において、クロスタスクの整合性損失がより良いことを証明している。
論文 参考訳(メタデータ) (2021-11-28T11:55:19Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Robust and flexible learning of a high-dimensional classification rule
using auxiliary outcomes [2.92281985958308]
我々は,高次元線形決定ルールを補助的な結果の存在下で推定する伝達学習手法を開発した。
最終推定器は,1つの利害関係のみを用いた推定よりも低い推定誤差が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T01:14:33Z) - How Important is the Train-Validation Split in Meta-Learning? [155.5088631672781]
メタラーニングにおける一般的な実践は、前者がデータの1つの分割に対してタスクに適応し、その結果の予測器が別の分割に対して評価される列車バリデーション分割(emphtrain-val method)を実行することである。
有病率にもかかわらず、列車の改札の重要性は理論上も実際上もよく理解されていない。
そこで本研究では,実際のメタ学習タスクとシミュレーションの両方において,トレイン・トレイン法がトレイン・ヴァル法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-12T16:48:42Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。