論文の概要: CLaSP: Learning Concepts for Time-Series Signals from Natural Language Supervision
- arxiv url: http://arxiv.org/abs/2411.08397v1
- Date: Wed, 13 Nov 2024 07:32:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:09:32.998611
- Title: CLaSP: Learning Concepts for Time-Series Signals from Natural Language Supervision
- Title(参考訳): CLaSP:自然言語による時系列信号の学習概念
- Authors: Aoi Ito, Kota Dohi, Yohei Kawaguchi,
- Abstract要約: CLaSP」は、その信号の特徴をクエリとして記述した自然言語を用いて時系列信号を検索することができる。
CLaSP」は時系列信号データの自然言語検索を可能にし、信号データの変化点を正確に学習することができる。
- 参考スコア(独自算出の注目度): 3.8506666685467352
- License:
- Abstract: This paper proposes a foundation model called "CLaSP" that can search time series signals using natural language that describes the characteristics of the signals as queries. Previous efforts to represent time series signal data in natural language have had challenges in designing a conventional class of time series signal characteristics, formulating their quantification, and creating a dictionary of synonyms. To overcome these limitations, the proposed method introduces a neural network based on contrastive learning. This network is first trained using the datasets TRUCE and SUSHI, which consist of time series signals and their corresponding natural language descriptions. Previous studies have proposed vocabularies that data analysts use to describe signal characteristics, and SUSHI was designed to cover these terms. We believe that a neural network trained on these datasets will enable data analysts to search using natural language vocabulary. Furthermore, our method does not require a dictionary of predefined synonyms, and it leverages common sense knowledge embedded in a large-scale language model (LLM). Experimental results demonstrate that CLaSP enables natural language search of time series signal data and can accurately learn the points at which signal data changes.
- Abstract(参考訳): 本稿では,その特徴をクエリとして記述した自然言語を用いて時系列信号を検索する基盤モデル「CLaSP」を提案する。
これまで、自然言語で時系列信号データを表現しようとする試みは、従来の時系列信号の特徴を設計し、その量化を定式化し、同義語の辞書を作成するという課題があった。
これらの制限を克服するため,提案手法では,コントラスト学習に基づくニューラルネットワークを導入する。
このネットワークは、時系列信号と対応する自然言語記述からなるデータセットTRUCEとSUSHIを用いて、まず訓練される。
従来の研究では、データ分析者が信号の特徴を記述するために使用する語彙が提案されており、SUSHIはこれらの用語をカバーするように設計されている。
これらのデータセットでトレーニングされたニューラルネットワークによって、自然言語の語彙を使ってデータアナリストが検索できるようになると信じています。
さらに,本手法では,事前定義された同義語辞書を必要とせず,大規模言語モデル(LLM)に埋め込まれた常識知識を活用する。
実験の結果,CLaSPは時系列信号データの自然言語検索を可能にし,信号データの変化点を正確に学習できることがわかった。
関連論文リスト
- Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - Part-of-Speech Tagging of Odia Language Using statistical and Deep
Learning-Based Approaches [0.0]
本研究は,条件付きランダムフィールド (CRF) と深層学習に基づくアプローチ (CNN と Bi-LSTM) を用いて,Odia の音声タグ作成を支援することを目的とする。
文字列の特徴を持つBi-LSTMモデルと事前学習した単語ベクトルは,最先端の結果を得た。
論文 参考訳(メタデータ) (2022-07-07T12:15:23Z) - Multi-View Spatial-Temporal Network for Continuous Sign Language
Recognition [0.76146285961466]
本稿では,多視点空間時間連続手話認識ネットワークを提案する。
2つの公開手話データセット SLR-100 と PHOENIX-Weather 2014T (RWTH) でテストされている。
論文 参考訳(メタデータ) (2022-04-19T08:43:03Z) - A Simple Multi-Modality Transfer Learning Baseline for Sign Language
Translation [54.29679610921429]
既存の手話データセットには、約10K-20Kの手話ビデオ、グロスアノテーション、テキストが含まれています。
したがって、データは効果的な手話翻訳モデルの訓練のボトルネックとなる。
この単純なベースラインは、2つの手話翻訳ベンチマークで過去の最先端の結果を上回っている。
論文 参考訳(メタデータ) (2022-03-08T18:59:56Z) - Time-Incremental Learning from Data Using Temporal Logics [3.167882687550935]
本稿では,プレフィックス信号と呼ばれる,時間とともに漸進的に受信される信号のラベルを予測する手法を提案する。
与えられたデータセットから有限個の信号時間論理(STL)仕様を生成するための,決定木に基づく新しい手法を提案する。
本アルゴリズムの有効性と分類性能を,都市交通と海軍監視ケーススタディで評価した。
論文 参考訳(メタデータ) (2021-12-28T21:32:00Z) - Sign Language Recognition via Skeleton-Aware Multi-Model Ensemble [71.97020373520922]
手話は一般的に、聴覚障害者やミュート人がコミュニケーションするために使われる。
孤立手話認識(SLR)のためのGlobal Ensemble Model(GEM)を用いた新しいマルチモーダルフレームワークを提案する。
提案するSAM-SLR-v2 フレームワークは極めて有効であり,最先端の性能を高いマージンで達成している。
論文 参考訳(メタデータ) (2021-10-12T16:57:18Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - NSL: Hybrid Interpretable Learning From Noisy Raw Data [66.15862011405882]
本稿では,ラベル付き非構造データから解釈可能なルールを学習するニューラルシンボリック学習フレームワークNSLを提案する。
NSLは、機能抽出のためのトレーニング済みニューラルネットワークと、解集合セマンティクスに基づくルール学習のための最先端のILPシステムであるFastLASを組み合わせる。
NSLは、MNISTデータから堅牢なルールを学び、ニューラルネットワークやランダムフォレストベースラインと比較して、比較または優れた精度を達成できることを実証します。
論文 参考訳(メタデータ) (2020-12-09T13:02:44Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z) - Towards Relevance and Sequence Modeling in Language Recognition [39.547398348702025]
本稿では,言語認識における短系列情報を利用したニューラルネットワークフレームワークを提案する。
音声認識タスクの関連性に基づいて、音声データの一部を重み付けする言語認識に関連性を取り入れた新しいモデルを提案する。
NIST LRE 2017 Challengeにおいて、クリーン、ノイズ、マルチ話者音声データを用いて言語認識タスクを用いて実験を行う。
論文 参考訳(メタデータ) (2020-04-02T18:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。