論文の概要: Embedding Symbolic Temporal Knowledge into Deep Sequential Models
- arxiv url: http://arxiv.org/abs/2101.11981v1
- Date: Thu, 28 Jan 2021 13:17:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-01-31 18:05:07.380184
- Title: Embedding Symbolic Temporal Knowledge into Deep Sequential Models
- Title(参考訳): シンボリックテンポラル知識を深層シーケンシャルモデルに組み込む
- Authors: Yaqi Xie, Fan Zhou, Harold Soh
- Abstract要約: 時系列や時系列はロボットのタスク、例えば活動認識や模倣学習で発生することが多い。
深層ニューラルネットワーク(DNN)は、十分なトレーニングデータと計算リソースを与えられたシーケンスを処理する効果的なデータ駆動手法として登場した。
グラフニューラルネットワークを用いて定式から生成された自動機械のセマンティックな埋め込みを構築する。実験により、これらの学習された埋め込みは、シーケンシャルな動作認識や模倣学習などの下流ロボットタスクの改善につながることが示された。
- 参考スコア(独自算出の注目度): 21.45383857094518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequences and time-series often arise in robot tasks, e.g., in activity
recognition and imitation learning. In recent years, deep neural networks
(DNNs) have emerged as an effective data-driven methodology for processing
sequences given sufficient training data and compute resources. However, when
data is limited, simpler models such as logic/rule-based methods work
surprisingly well, especially when relevant prior knowledge is applied in their
construction. However, unlike DNNs, these "structured" models can be difficult
to extend, and do not work well with raw unstructured data. In this work, we
seek to learn flexible DNNs, yet leverage prior temporal knowledge when
available. Our approach is to embed symbolic knowledge expressed as linear
temporal logic (LTL) and use these embeddings to guide the training of deep
models. Specifically, we construct semantic-based embeddings of automata
generated from LTL formula via a Graph Neural Network. Experiments show that
these learnt embeddings can lead to improvements in downstream robot tasks such
as sequential action recognition and imitation learning.
- Abstract(参考訳): シーケンスや時系列はロボットのタスク、例えば行動認識や模倣学習でしばしば発生する。
近年、深層ニューラルネットワーク(DNN)は、十分なトレーニングデータと計算資源を与えられたシーケンスを処理するための効果的なデータ駆動手法として出現している。
しかし、データに制限がある場合、ロジック/ルールベースのメソッドのような単純なモデルは驚くほどうまく機能します。
しかし、DNNとは異なり、これらの「構造化」モデルは拡張が困難であり、生の非構造化データではうまく動作しない。
本研究では,フレキシブルなDNNを学習するが,利用可能な時間的知識を利用する。
我々のアプローチは、線形時間論理(LTL)として表現された記号的知識を埋め込み、これらの埋め込みを用いて深層モデルの訓練を導くことである。
具体的には,グラフニューラルネットワークを用いてLTL式から生成したオートマトンのセマンティックな埋め込みを構築する。
実験では、これらの学習された埋め込みは、シーケンシャルアクション認識や模倣学習などの下流のロボットタスクの改善につながる可能性があります。
関連論文リスト
- Dynamics of Supervised and Reinforcement Learning in the Non-Linear Perceptron [3.069335774032178]
学習を記述するフロー方程式を導出するために,データセット処理アプローチを用いる。
学習ルール(教師付きまたは強化学習,SL/RL)と入力データ分布が知覚者の学習曲線に及ぼす影響を特徴付ける。
このアプローチは、より複雑な回路アーキテクチャの学習力学を解析する方法を示している。
論文 参考訳(メタデータ) (2024-09-05T17:58:28Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Neural Koopman prior for data assimilation [7.875955593012905]
ニューラルネットワークアーキテクチャを使って、潜在空間に動的システムを埋め込む。
本研究では,このようなモデルを長期の継続的再構築のために訓練する手法を提案する。
また,変動データ同化手法の先行として,訓練された動的モデルの有望な利用を示すとともに,自己教師型学習の可能性も示された。
論文 参考訳(メタデータ) (2023-09-11T09:04:36Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning Signal Temporal Logic through Neural Network for Interpretable
Classification [13.829082181692872]
本稿では時系列行動の分類のための説明可能なニューラルネットワーク・シンボリック・フレームワークを提案する。
提案手法の計算効率, コンパクト性, 解釈可能性について, シナリオの駆動と海軍の監視事例研究を通じて実証する。
論文 参考訳(メタデータ) (2022-10-04T21:11:54Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Online learning of windmill time series using Long Short-term Cognitive
Networks [58.675240242609064]
風車農場で生成されたデータの量は、オンライン学習が従うべき最も有効な戦略となっている。
我々はLong Short-term Cognitive Networks (LSTCNs) を用いて、オンライン環境での風車時系列を予測する。
提案手法は,単純なRNN,長期記憶,Gated Recurrent Unit,Hidden Markov Modelに対して最も低い予測誤差を報告した。
論文 参考訳(メタデータ) (2021-07-01T13:13:24Z) - Memorization and Generalization in Neural Code Intelligence Models [3.6245424131171813]
我々は,ニューラルネットワークインテリジェンスモデルにおける記憶と一般化の傾向をケーススタディにより評価した。
私たちの結果は、トレーニングにおけるノイズの多いデータセットの影響に光を当てました。
論文 参考訳(メタデータ) (2021-06-16T11:11:41Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Causality-aware counterfactual confounding adjustment for feature
representations learned by deep models [14.554818659491644]
因果モデリングは機械学習(ML)における多くの課題に対する潜在的な解決策として認識されている。
深層ニューラルネットワーク(DNN)モデルによって学習された特徴表現を分解するために、最近提案された対実的アプローチが依然として使われている方法について説明する。
論文 参考訳(メタデータ) (2020-04-20T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。