論文の概要: Explicit Context Integrated Recurrent Neural Network for Sensor Data
Applications
- arxiv url: http://arxiv.org/abs/2301.05031v1
- Date: Thu, 12 Jan 2023 13:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:01:19.861185
- Title: Explicit Context Integrated Recurrent Neural Network for Sensor Data
Applications
- Title(参考訳): センサデータ応用のための明示的コンテキスト統合リカレントニューラルネットワーク
- Authors: Rashmi Dutta Baruah and Mario Mu\~noz Organero
- Abstract要約: Context Integrated RNN (CiRNN) は、コンテキスト特徴の形式で表現された明示的なコンテキストの統合を可能にする。
実験では、最先端モデルよりもそれぞれ39%と87%の改善が見られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development and progress in sensor, communication and computing
technologies have led to data rich environments. In such environments, data can
easily be acquired not only from the monitored entities but also from the
surroundings where the entity is operating. The additional data that are
available from the problem domain, which cannot be used independently for
learning models, constitute context. Such context, if taken into account while
learning, can potentially improve the performance of predictive models.
Typically, the data from various sensors are present in the form of time
series. Recurrent Neural Networks (RNNs) are preferred for such data as it can
inherently handle temporal context. However, the conventional RNN models such
as Elman RNN, Long Short-Term Memory (LSTM) and Gated Recurrent Unit (GRU) in
their present form do not provide any mechanism to integrate explicit contexts.
In this paper, we propose a Context Integrated RNN (CiRNN) that enables
integrating explicit contexts represented in the form of contextual features.
In CiRNN, the network weights are influenced by contextual features in such a
way that the primary input features which are more relevant to a given context
are given more importance. To show the efficacy of CiRNN, we selected an
application domain, engine health prognostics, which captures data from various
sensors and where contextual information is available. We used the NASA
Turbofan Engine Degradation Simulation dataset for estimating Remaining Useful
Life (RUL) as it provides contextual information. We compared CiRNN with
baseline models as well as the state-of-the-art methods. The experimental
results show an improvement of 39% and 87% respectively, over state-of-the art
models, when performance is measured with RMSE and score from an asymmetric
scoring function. The latter measure is specific to the task of RUL estimation.
- Abstract(参考訳): センサ、通信、コンピューティング技術の発展と進歩は、データ豊富な環境に繋がった。
このような環境では、データは監視されたエンティティだけでなく、そのエンティティが動作している環境からも容易に取得できる。
問題領域から利用可能な追加データは、学習モデルに独立して使用できないため、コンテキストを構成する。
このような文脈を学習中に考慮すれば、予測モデルの性能が向上する可能性がある。
通常、様々なセンサーからのデータは時系列の形で存在している。
リカレントニューラルネットワーク(RNN)は、時間的コンテキストを本質的に扱えるようなデータに好まれる。
しかし、エルマンRNN、Long Short-Term Memory(LSTM)、Gated Recurrent Unit(GRU)といった従来のRNNモデルは、明示的なコンテキストを統合するメカニズムを提供していない。
本稿ではコンテキスト統合RNN(CiRNN)を提案する。
CiRNNでは、ネットワークの重みは文脈的特徴に影響され、与えられた文脈により関連性のある主入力特徴がより重要となる。
CiRNNの有効性を示すために,各種センサからデータを取り出すアプリケーション領域,エンジンの健康診断,コンテキスト情報の利用方法などを選択した。
我々は、NASA Turbofan Engine Degradation Simulationデータセットを使用して、コンテキスト情報を提供するために、Remaining Useful Life (RUL)を推定した。
我々はCiRNNをベースラインモデルや最先端手法と比較した。
実験の結果,RMSEと非対称スコアリング関数による評価では,最先端技術モデルよりも39%,87%向上した。
後者の尺度は、RUL推定のタスクに特化している。
関連論文リスト
- Enhancing SNN-based Spatio-Temporal Learning: A Benchmark Dataset and Cross-Modality Attention Model [30.66645039322337]
高品質なベンチマークデータセットは、ニューラルネットワーク(SNN)の発展に非常に重要である
しかし、SNNベースのクロスモーダル融合はまだ未定である。
本研究では,SNNの時間的特性をよりよく活用できるニューロモルフィックデータセットを提案する。
論文 参考訳(メタデータ) (2024-10-21T06:59:04Z) - Synthetic Trajectory Generation Through Convolutional Neural Networks [6.717469146587211]
RTCT(Reversible Trajectory-to-CNN Transformation)を導入する。
RTCTは、軌跡をCNNベースのモデルに適したフォーマットに適合させる。
我々は、RNNに基づく軌道GANに対して、その性能を評価する。
論文 参考訳(メタデータ) (2024-07-24T02:16:52Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - ARM-Net: Adaptive Relation Modeling Network for Structured Data [29.94433633729326]
ARM-Netは、構造化データに適した適応関係モデリングネットワークであり、リレーショナルデータのためのARM-Netに基づく軽量フレームワークARMORである。
ARM-Netは既存のモデルより一貫して優れており、データセットに対してより解釈可能な予測を提供する。
論文 参考訳(メタデータ) (2021-07-05T07:37:24Z) - Scene Understanding for Autonomous Driving [0.0]
Detectron2で提示されたRetinaNet, Faster R-CNN, Mask R-CNNの異なる構成の挙動を検討する。
関心のあるデータセット上でこれらのモデルを微調整した後、パフォーマンスの大幅な改善を観察します。
文脈外のデータセットを用いて異常な状況下で推論を行い、興味深い結果を示す。
論文 参考訳(メタデータ) (2021-05-11T09:50:05Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Graph Neural Networks for Leveraging Industrial Equipment Structure: An
application to Remaining Useful Life Estimation [21.297461316329453]
本稿では,複雑な機器の構造をグラフ形式で把握し,マルチセンサ時系列データをモデル化するためにグラフニューラルネットワーク(GNN)を用いる。
我々は,提案したGNNに基づくRUL推定モデルが,RNNやCNNをベースとした文学からの強いベースラインと好意的に比較した。
論文 参考訳(メタデータ) (2020-06-30T06:38:08Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。