論文の概要: Neuro-symbolic Models for Interpretable Time Series Classification using
Temporal Logic Description
- arxiv url: http://arxiv.org/abs/2209.09114v1
- Date: Thu, 15 Sep 2022 20:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:33:23.844440
- Title: Neuro-symbolic Models for Interpretable Time Series Classification using
Temporal Logic Description
- Title(参考訳): 時間論理記述を用いた解釈可能な時系列分類のためのニューロシンボリックモデル
- Authors: Ruixuan Yan, Tengfei Ma, Achille Fokoue, Maria Chang, Agung Julius
- Abstract要約: 解釈可能な機械学習モデルは、データのパターンを発見し、ドメインの専門家に理解しやすい洞察を与えるのに役立つ。
本稿では、信号時間論理(STL)とニューラルネットワーク(NN)を活用してTSCタスクを実現するニューロシンボリック時系列分類(NSTSC)を提案する。
- 参考スコア(独自算出の注目度): 6.38434293310427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing Time series classification (TSC) models lack interpretability
and are difficult to inspect. Interpretable machine learning models can aid in
discovering patterns in data as well as give easy-to-understand insights to
domain specialists. In this study, we present Neuro-Symbolic Time Series
Classification (NSTSC), a neuro-symbolic model that leverages signal temporal
logic (STL) and neural network (NN) to accomplish TSC tasks using multi-view
data representation and expresses the model as a human-readable, interpretable
formula. In NSTSC, each neuron is linked to a symbolic expression, i.e., an STL
(sub)formula. The output of NSTSC is thus interpretable as an STL formula akin
to natural language, describing temporal and logical relations hidden in the
data. We propose an NSTSC-based classifier that adopts a decision-tree approach
to learn formula structures and accomplish a multiclass TSC task. The proposed
smooth activation functions for wSTL allow the model to be learned in an
end-to-end fashion. We test NSTSC on a real-world wound healing dataset from
mice and benchmark datasets from the UCR time-series repository, demonstrating
that NSTSC achieves comparable performance with the state-of-the-art models.
Furthermore, NSTSC can generate interpretable formulas that match with domain
knowledge.
- Abstract(参考訳): 既存の時系列分類(TSC)モデルは解釈可能性に欠けており、検査が困難である。
解釈可能な機械学習モデルは、データ内のパターンの発見を支援し、ドメインの専門家に理解しやすい洞察を与える。
本研究では、信号時相論理(STL)とニューラルネットワーク(NN)を利用して、マルチビューデータ表現を用いてTSCタスクを達成し、そのモデルを人間可読で解釈可能な公式として表現するニューロシンボリック時系列分類(NSTSC)を提案する。
NSTSCでは、各ニューロンは記号的表現、すなわちSTL(sub)formulaにリンクされる。
したがって、NSTSCの出力は自然言語に似たSTL式として解釈され、データに隠された時間的および論理的関係を記述する。
式構造を学習し,マルチクラス TSC タスクを達成するための決定木アプローチを採用した NSTSC ベースの分類器を提案する。
提案したwSTLのスムーズなアクティベーション関数により、モデルをエンドツーエンドで学習することができる。
我々は,マウスによる実際の創傷治癒データセットとUCR時系列リポジトリからのベンチマークデータセットを用いてNSTSCを試験し,NSTSCが最先端のモデルと同等のパフォーマンスを達成することを示す。
さらに、NSTSCはドメイン知識と一致する解釈式を生成することができる。
関連論文リスト
- TLINet: Differentiable Neural Network Temporal Logic Inference [10.36033062385604]
本稿では,STL式を学習するニューラルネットワークシンボリックフレームワークであるTLINetを紹介する。
従来の手法とは対照的に,時間論理に基づく勾配法に特化して設計された最大演算子の近似法を導入する。
我々のフレームワークは、構造だけでなく、STL公式のパラメータも学習し、演算子と様々な論理構造の柔軟な組み合わせを可能にします。
論文 参考訳(メタデータ) (2024-05-03T16:38:14Z) - Enhancing Sequential Model Performance with Squared Sigmoid TanH (SST)
Activation Under Data Constraints [0.0]
本研究では,データ制約下での逐次モデルの学習能力を高めるために,SST(Sigmoid TanH)アクティベーションの2乗化を提案する。
SSTは、信号が時間とともに伝播するにつれて、強い活性化と弱い活性化の差を増幅するために数学的なスクアリングを適用している。
我々は,手話認識,回帰,時系列分類タスクなどの多様なアプリケーションに対して,SSTを利用したLSTMとGRUを評価した。
論文 参考訳(メタデータ) (2024-02-14T09:20:13Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Disentangling Structured Components: Towards Adaptive, Interpretable and
Scalable Time Series Forecasting [52.47493322446537]
本研究では,時空間パターンの各コンポーネントを個別にモデル化する適応的,解釈可能,スケーラブルな予測フレームワークを開発する。
SCNNは、空間時間パターンの潜在構造を算術的に特徴づける、MSSの事前定義された生成プロセスで動作する。
SCNNが3つの実世界のデータセットの最先端モデルよりも優れた性能を達成できることを示すため、大規模な実験が行われた。
論文 参考訳(メタデータ) (2023-05-22T13:39:44Z) - Learning Signal Temporal Logic through Neural Network for Interpretable
Classification [13.829082181692872]
本稿では時系列行動の分類のための説明可能なニューラルネットワーク・シンボリック・フレームワークを提案する。
提案手法の計算効率, コンパクト性, 解釈可能性について, シナリオの駆動と海軍の監視事例研究を通じて実証する。
論文 参考訳(メタデータ) (2022-10-04T21:11:54Z) - Low-Rank Constraints for Fast Inference in Structured Models [110.38427965904266]
この研究は、大規模構造化モデルの計算とメモリの複雑さを低減するための単純なアプローチを示す。
言語モデリング,ポリフォニック・ミュージック・モデリング,教師なし文法帰納法,ビデオ・モデリングのためのニューラルパラメータ構造モデルを用いた実験により,我々の手法は大規模状態空間における標準モデルの精度と一致することを示した。
論文 参考訳(メタデータ) (2022-01-08T00:47:50Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Neural Network for Weighted Signal Temporal Logic [0.0]
We propose a neuro-symbolic framework called weighted Signal Temporal Logic Neural Network (wSTL-NN)。
wSTL-NNはエンドツーエンドの差別化が可能で、バックプロパゲーションを使ってwSTL式を学習することができる。
このフレームワークを稼働時間検出時系列データセットに適用し、オフィスルームの稼働状況を予測する分類器を学習する。
論文 参考訳(メタデータ) (2021-04-08T20:44:26Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Learned Factor Graphs for Inference from Stationary Time Sequences [107.63351413549992]
定常時間列のためのモデルベースアルゴリズムとデータ駆動型MLツールを組み合わせたフレームワークを提案する。
ニューラルネットワークは、時系列の分布を記述する因子グラフの特定のコンポーネントを別々に学習するために開発された。
本稿では,学習された定常因子グラフに基づく推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-05T07:06:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。