論文の概要: UniTS: A Universal Time Series Analysis Framework with Self-supervised
Representation Learning
- arxiv url: http://arxiv.org/abs/2303.13804v1
- Date: Fri, 24 Mar 2023 04:57:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:46:22.963470
- Title: UniTS: A Universal Time Series Analysis Framework with Self-supervised
Representation Learning
- Title(参考訳): UniTS: 自己教師型表現学習を備えたユニバーサル時系列分析フレームワーク
- Authors: Zhiyu Liang, Chen Liang, Zheng Liang, Hongzhi Wang
- Abstract要約: 自己指導型表現学習(あるいは事前学習)を取り入れた新しいフレームワークUniTSを開発する。
UniTSのコンポーネントは、柔軟な拡張を可能にするためにsklearnのようなAPIを使って設計されている。
従来のタスク固有の手法に比べて,5つのメインストリームタスクと2つの実践的設定で事前学習を行うことなく,UniTSの優れた性能を示す。
- 参考スコア(独自算出の注目度): 15.108677832435832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has emerged as a powerful tool for time series analysis.
Existing methods are usually customized for different analysis tasks and face
challenges in tackling practical problems such as partial labeling and domain
shift. To achieve universal analysis and address the aforementioned problems,
we develop UniTS, a novel framework that incorporates self-supervised
representation learning (or pre-training). The components of UniTS are designed
using sklearn-like APIs to allow flexible extensions. We demonstrate how users
can easily perform an analysis task using the user-friendly GUIs, and show the
superior performance of UniTS over the traditional task-specific methods
without self-supervised pre-training on five mainstream tasks and two practical
settings.
- Abstract(参考訳): 機械学習は時系列分析の強力なツールとして登場した。
既存のメソッドは通常、異なる分析タスク用にカスタマイズされ、部分的なラベリングやドメインシフトといった実用的な問題に取り組む際の課題に直面します。
上記の問題を解決するために,自己指導型表現学習(あるいは事前学習)を取り入れた新しいフレームワークであるUniTSを開発した。
UniTSのコンポーネントは、柔軟な拡張を可能にするためにsklearnのようなAPIを使って設計されている。
ユーザがユーザフレンドリなGUIを使って分析タスクを簡単に実行できることを示し、従来のタスク固有の手法よりもUniTSの方が5つのメインストリームタスクと2つの実践的な設定で自己教師付き事前学習なしで優れた性能を示す。
関連論文リスト
- TimeCSL: Unsupervised Contrastive Learning of General Shapelets for Explorable Time Series Analysis [33.137110972937855]
TimeCSLは、探索可能な時系列解析を実現するために、CSLが学習した一般および解釈可能なシェイプレットをフル活用するエンドツーエンドシステムである。
システムコンポーネントを導入し、ユーザがTimeCSLとどのように相互作用して、統一パイプラインにおける異なる分析タスクを解決するかを実証する。
論文 参考訳(メタデータ) (2024-04-07T19:39:14Z) - Empowering Private Tutoring by Chaining Large Language Models [87.76985829144834]
本研究は,最先端の大規模言語モデル(LLM)を活用した,本格的な知的チューリングシステムの開発を探求する。
このシステムは、相互に接続された3つのコアプロセス(相互作用、反射、反応)に分けられる。
各プロセスは LLM ベースのツールと動的に更新されたメモリモジュールによって実装される。
論文 参考訳(メタデータ) (2023-09-15T02:42:03Z) - Contrastive Shapelet Learning for Unsupervised Multivariate Time Series
Representation Learning [21.437162740349045]
教師なし表現学習(URL)は、アクセス不能なラベルを使わずに、多くの下流タスクの一般化可能な表現を学習する能力を持つ。
本稿では,一般的なコントラスト学習パラダイムを通じて時系列固有のシェープレットに基づく表現を学習し,新しいURLフレームワークを提案する。
統一型シェープレットベースのエンコーダと,マルチグレードコントラストとマルチスケールアライメントを備えた新しい学習目標が,目的達成のために特に設計されている。
論文 参考訳(メタデータ) (2023-05-30T09:31:57Z) - ART: Automatic multi-step reasoning and tool-use for large language
models [105.57550426609396]
大規模言語モデル(LLM)は、数秒とゼロショットの設定で複雑な推論を行うことができる。
各推論ステップは、コアLLM機能を超えて計算をサポートする外部ツールに依存することができる。
プログラムとして中間推論ステップを自動生成するために凍結LDMを使用するフレームワークであるART(Automatic Reasoning and Tool-use)を導入する。
論文 参考訳(メタデータ) (2023-03-16T01:04:45Z) - Retrieval as Attention: End-to-end Learning of Retrieval and Reading
within a Single Transformer [80.50327229467993]
学習した1つのモデルが競合検索とQA性能の両方を達成可能であることを示す。
エンドツーエンド適応は、教師なし設定と教師なし設定の両方において、ドメイン外のデータセットのパフォーマンスを大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-12-05T04:51:21Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z) - Do Different Tracking Tasks Require Different Appearance Models? [118.02175542476367]
我々は、同じフレームワーク内の5つの異なるタスクに対処する統合されたトラッキングソリューションUniTrackを提案する。
UniTrackは単一かつタスクに依存しない外観モデルで構成されており、教師付きまたは自己管理的な方法で学習することができる。
このフレームワークでは,ほとんどのトラッキングタスクがいかに解決可能かを示し,同じ外観モデルを用いて検討された5つのタスクすべてに対して,特殊化メソッドと競合する性能が得られることを示す。
論文 参考訳(メタデータ) (2021-07-05T17:40:17Z) - MT-Opt: Continuous Multi-Task Robotic Reinforcement Learning at Scale [103.7609761511652]
大規模集団ロボット学習システムが,行動のレパートリーを同時に獲得できることを示す。
新しいタスクは、以前学んだタスクから継続的にインスタンス化できる。
我々は,7台のロボットから収集したデータを用いて,実世界のタスク12組でシステムを訓練し,評価する。
論文 参考訳(メタデータ) (2021-04-16T16:38:02Z) - EXPATS: A Toolkit for Explainable Automated Text Scoring [2.299617836036273]
ユーザが様々なATSモデルを迅速に開発、実験できるオープンソースフレームワークであるEXPATSについて紹介する。
また、このツールキットはLanguage Interpretability Tool(LIT)とシームレスに統合できるため、モデルとその予測を解釈および視覚化できます。
論文 参考訳(メタデータ) (2021-04-07T19:29:06Z) - Using Sensory Time-cue to enable Unsupervised Multimodal Meta-learning [8.179380217027473]
本稿では,教師なしメタラーニング(STUM)のための感覚的時間キューを提案する。
STUMシステムは、入力の時間関係を利用して、モダリティ内および横断的な特徴空間の形成を誘導する。
オーディオ視覚学習の例では、連続した視覚的フレームが通常同じオブジェクトで構成されているため、このアプローチは、同じオブジェクトから特徴をまとめるユニークな方法を提供する。
論文 参考訳(メタデータ) (2020-09-16T18:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。