論文の概要: Temporal and Object Quantification Networks
- arxiv url: http://arxiv.org/abs/2106.05891v1
- Date: Thu, 10 Jun 2021 16:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-11 14:44:29.106405
- Title: Temporal and Object Quantification Networks
- Title(参考訳): 時間・物体定量化ネットワーク
- Authors: Jiayuan Mao, Zhezheng Luo, Chuang Gan, Joshua B. Tenenbaum, Jiajun Wu,
Leslie Pack Kaelbling, Tomer D. Ullman
- Abstract要約: 複雑な関係時間事象を認識できる構造バイアスを持つニューロシンボリックネットワークを新たに提案する。
我々は、TOQ-Netsが、少量のデータから、トレーニング中に存在したものよりも多くのオブジェクトを含むシナリオ、入力シーケンスの時間的ワープまでを一般化できることを実証した。
- 参考スコア(独自算出の注目度): 95.64650820186706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Temporal and Object Quantification Networks (TOQ-Nets), a new
class of neuro-symbolic networks with a structural bias that enables them to
learn to recognize complex relational-temporal events. This is done by
including reasoning layers that implement finite-domain quantification over
objects and time. The structure allows them to generalize directly to input
instances with varying numbers of objects in temporal sequences of varying
lengths. We evaluate TOQ-Nets on input domains that require recognizing
event-types in terms of complex temporal relational patterns. We demonstrate
that TOQ-Nets can generalize from small amounts of data to scenarios containing
more objects than were present during training and to temporal warpings of
input sequences.
- Abstract(参考訳): 本稿では, 時間的・物体的量化ネットワーク(TOQ-Nets)について述べる。これは, 複雑な関係時間的事象を認識できるように, 構造的バイアスを持つニューロシンボリックネットワークの新たなクラスである。
これは、オブジェクトと時間にわたって有限領域の定量化を実装する層を含むことによって行われる。
この構造により、異なる長さの時間列のオブジェクトの数が異なる入力インスタンスに直接一般化することができる。
複雑な時間関係パターンを用いてイベントタイプを認識する入力領域におけるtoq-netの評価を行う。
toq-netは少量のデータから、トレーニング中に存在し、入力シーケンスの時間的ワーピングよりも多くのオブジェクトを含むシナリオに一般化できることを実証する。
関連論文リスト
- Large Language Models as Event Forecasters [10.32127659470566]
人間の出来事の鍵となる要素は、主題、関係、対象、タイムスタンプからなる四重項として抽出される。
これらの四重項または四重項は、特定の領域内で組織化されると、時間知識グラフ(TKG)を形成する。
論文 参考訳(メタデータ) (2024-06-15T04:09:31Z) - Temporal-aware Hierarchical Mask Classification for Video Semantic
Segmentation [62.275143240798236]
ビデオセマンティックセグメンテーションデータセットは、ビデオ毎のカテゴリが限られている。
VSSトレーニング中に意味のある勾配更新を受けるために、クエリの10%未満がマッチする可能性がある。
提案手法は,最新のVSSベンチマークVSPWにおいてベルやホイッスルを使わずに,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-09-14T20:31:06Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - It is all Connected: A New Graph Formulation for Spatio-Temporal
Forecasting [1.278093617645299]
グラフニューラルネットワーク(GNN)ネットワークを用いて時間的および空間的依存関係を学習するためのフレームワークを提案する。
GNNは、すべてのサンプルをグラフ内の独自のノードとして表現する。
このフレームワークは時間次元に沿った測定を必要としないため、データサンプリングの計算を必要とせずに、不規則な時系列、異なる周波数、または欠落データを容易にする。
論文 参考訳(メタデータ) (2023-03-23T11:16:33Z) - Tracking Objects and Activities with Attention for Temporal Sentence
Grounding [51.416914256782505]
時間文 (TSG) は、意味的に自然言語のクエリと一致した時間セグメントを、トリミングされていないセグメントでローカライズすることを目的としている。
本稿では,(A)マルチモーダル・検索空間を生成するクロスモーダル・ターゲット・ジェネレータと(B)マルチモーダル・ターゲットの動作を追跡し,クエリ関連セグメントを予測するテンポラル・センセント・トラッカーとを含む,新しいテンポラル・センセント・トラッカー・ネットワーク(TSTNet)を提案する。
論文 参考訳(メタデータ) (2023-02-21T16:42:52Z) - Semi-Structured Object Sequence Encoders [9.257633944317735]
本稿では,半構造化オブジェクト列に対する構造認識型入力表現の開発に焦点をあてる。
このタイプのデータは、時間とともにキーと値のペアの一連の配列として表されることが多い。
本稿では,まず各キーを独立に考慮し,時間とともに値の表現を符号化する2部手法を提案する。
論文 参考訳(メタデータ) (2023-01-03T09:19:41Z) - Novel Features for Time Series Analysis: A Complex Networks Approach [62.997667081978825]
時系列データは、気候、経済、医療などいくつかの領域で広く使われている。
最近の概念的アプローチは、複雑なネットワークへの時系列マッピングに依存している。
ネットワーク分析は、異なるタイプの時系列を特徴付けるのに使うことができる。
論文 参考訳(メタデータ) (2021-10-11T13:46:28Z) - Learnable Dynamic Temporal Pooling for Time Series Classification [22.931314501371805]
本稿では,セグメントレベルの特徴を集約することにより,隠れ表現の時間的サイズを低減する動的時間的プーリング(DTP)手法を提案する。
時系列全体の分割を複数のセグメントに分割するために,動的時間ゆがみ(dtw)を用いて各時間点を時間順に整列し,セグメントの原型的特徴を示す。
完全連結層と組み合わせたDTP層は、入力時系列内の時間的位置を考慮したさらなる識別的特徴を抽出するのに役立つ。
論文 参考訳(メタデータ) (2021-04-02T08:58:44Z) - Hierarchical Conditional Relation Networks for Multimodal Video Question
Answering [67.85579756590478]
ビデオQAは、少なくとも2つの複雑さのレイヤを追加します。
条件付き関係ネットワーク(CRN)は、入力の関係を符号化する新しいオブジェクトのセットに変換するテンソルオブジェクトのセットを入力として取り込む。
その後、CRNはビデオQAに2つの形式で適用され、答えが視覚コンテンツからのみ推論されるショートフォームと、サブタイトルなどの関連情報が提示されるロングフォームである。
論文 参考訳(メタデータ) (2020-10-18T02:31:06Z) - Instance Explainable Temporal Network For Multivariate Timeseries [0.0]
本稿では,推論のインスタンスごとの分類決定において重要なチャネルを識別する新しいネットワーク(IETNet)を提案する。
IETNetは、時間的特徴抽出、変数選択、共同変数の相互作用を単一の学習フレームワークに組み合わせたエンドツーエンドネットワークである。
論文 参考訳(メタデータ) (2020-05-26T20:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。