論文の概要: Sequence-to-Sequence Imputation of Missing Sensor Data
- arxiv url: http://arxiv.org/abs/2002.10767v1
- Date: Tue, 25 Feb 2020 09:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:53:59.726529
- Title: Sequence-to-Sequence Imputation of Missing Sensor Data
- Title(参考訳): 欠測センサデータのシーケンシャル・ツー・シーケンスインプテーション
- Authors: Joel Janek Dabrowski and Ashfaqur Rahman
- Abstract要約: センサデータの欠落を回復するためのシーケンス・ツー・シーケンス・モデルを開発した。
前方RNNは、行方不明シーケンスの前に観測されたデータを符号化し、後方RNNは行方不明シーケンス後に観測されたデータを符号化する。
デコーダは、2つのエンコーダを新しい方法で復号し、欠落したデータを予測する。
- 参考スコア(独自算出の注目度): 1.9036571490366496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the sequence-to-sequence (encoder-decoder) model is considered the
state-of-the-art in deep learning sequence models, there is little research
into using this model for recovering missing sensor data. The key challenge is
that the missing sensor data problem typically comprises three sequences (a
sequence of observed samples, followed by a sequence of missing samples,
followed by another sequence of observed samples) whereas, the
sequence-to-sequence model only considers two sequences (an input sequence and
an output sequence). We address this problem by formulating a
sequence-to-sequence in a novel way. A forward RNN encodes the data observed
before the missing sequence and a backward RNN encodes the data observed after
the missing sequence. A decoder decodes the two encoders in a novel way to
predict the missing data. We demonstrate that this model produces the lowest
errors in 12% more cases than the current state-of-the-art.
- Abstract(参考訳): シークエンス・ツー・シーケンス(エンコーダ・デコーダ)モデルは,ディープラーニングのシーケンスモデルでは最先端と見なされているが,このモデルを用いてセンサデータの欠落を回復する研究はほとんどない。
重要な課題は、センサーデータの欠落問題は一般的に3つのシーケンス(観測されたサンプルのシーケンス、欠落したサンプルのシーケンス、そして別の観測サンプルのシーケンス)から成り立っているのに対し、シーケンス-シーケンス間のモデルは2つのシーケンス(入力シーケンスと出力シーケンス)のみを考慮していることである。
我々は,新しい方法でシーケンス列を定式化することでこの問題に対処した。
前方RNNは、行方不明シーケンスの前に観測されたデータを符号化し、後方RNNは行方不明シーケンス後に観測されたデータを符号化する。
デコーダは、2つのエンコーダを新しい方法でデコードし、行方不明データを予測する。
このモデルが現在の最先端モデルよりも12%多いケースで最小のエラーを発生させることを示す。
関連論文リスト
- Harnessing Attention Mechanisms: Efficient Sequence Reduction using
Attention-based Autoencoders [14.25761027376296]
本稿では,シーケンス長を直接操作できる新しいアテンションベース手法を提案する。
オートエンコーダは、元のシーケンスを元のサイズの半分に減らす際に、重要な情報を全て保持していることを示す。
論文 参考訳(メタデータ) (2023-10-23T11:57:44Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Seq-HyGAN: Sequence Classification via Hypergraph Attention Network [0.0]
シークエンス分類は、健康におけるゲノム分類やビジネスにおける異常検出など、さまざまな領域における幅広い実世界の応用を有する。
シーケンスデータに明示的な機能がないため、機械学習モデルでは難しい。
本稿では,新しいハイパーグラフ注意ネットワークモデル,Seq-HyGANを提案する。
論文 参考訳(メタデータ) (2023-03-04T11:53:33Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - A Non-monotonic Self-terminating Language Model [62.93465126911921]
本稿では,不完全復号アルゴリズムによる非終端列の問題に焦点をあてる。
まず、グリーディ探索、トップ$kのサンプリング、核サンプリングを含む不完全確率復号アルゴリズムを定義する。
次に,単調な終端確率の制約を緩和する非単調な自己終端言語モデルを提案する。
論文 参考訳(メタデータ) (2022-10-03T00:28:44Z) - Sequence Prediction Under Missing Data : An RNN Approach Without
Imputation [1.9188864062289432]
本稿では,新しいリカレント・ネットワーク(RNN)を用いたシーケンス予測手法について述べる。
モデル構築の前後でデータをインプットすることなく、データの不足パターンを直接エンコードしようとします。
ここでは、入力が存在する場合に、多段階予測の一般的な文脈で予測することに焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:09:12Z) - Unsupervised Flow-Aligned Sequence-to-Sequence Learning for Video
Restoration [85.3323211054274]
ビデオシーケンス内のフレーム間関係を適切にモデル化する方法は、ビデオ復元(VR)において重要であるが未解決の課題である。
本研究では,この問題を解決するために,教師なしフローアライメントシーケンス・ツー・シーケンス・モデル(S2SVR)を提案する。
S2SVRは、ビデオデブリ、ビデオスーパー解像度、圧縮されたビデオ品質向上など、複数のVRタスクにおいて優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-05-20T14:14:48Z) - Don't Take It Literally: An Edit-Invariant Sequence Loss for Text
Generation [109.46348908829697]
生成したn-gramのすべてのn-gramとの一致損失を計算した新しい編集不変シーケンス損失(EISL)を提案する。
ノイズの多いターゲットシーケンスを持つ機械翻訳,教師なしテキストスタイル転送,非自己回帰型機械翻訳の3つのタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-06-29T03:59:21Z) - Multi-Scale One-Class Recurrent Neural Networks for Discrete Event
Sequence Anomaly Detection [63.825781848587376]
本稿では,離散イベントシーケンス中の異常を検出する1クラスリカレントニューラルネットワークOC4Seqを提案する。
具体的には、OC4Seqは離散イベントシーケンスを遅延空間に埋め込み、異常を容易に検出することができる。
論文 参考訳(メタデータ) (2020-08-31T04:48:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。