論文の概要: Sensei: Self-Supervised Sensor Name Segmentation
- arxiv url: http://arxiv.org/abs/2101.00130v1
- Date: Fri, 1 Jan 2021 01:18:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 14:30:44.668276
- Title: Sensei: Self-Supervised Sensor Name Segmentation
- Title(参考訳): sensei: 自己教師付きセンサ名セグメンテーション
- Authors: Jiaman Wu, Dezhi Hong, Rajesh Gupta, Jingbo Shang
- Abstract要約: 人間のアノテーションを使わずにセンサ名をセグメント化できる完全自動自己監視型フレームワーク「センセイ」を提案します。
ニューラルネットワークモデルを用いて,基盤となるセンサの命名構造を捉え,言語モデルからの情報に基づいて自己スーパービジョンを誘導し,セグメンテーションモデルを構築する。
- 参考スコア(独自算出の注目度): 16.285315941757364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A sensor name, typically an alphanumeric string, encodes the key context
(e.g., function and location) of a sensor needed for deploying smart building
applications. Sensor names, however, are curated in a building vendor-specific
manner using different structures and vocabularies that are often esoteric.
They thus require tremendous manual effort to annotate on a per-building basis;
even to just segment these sensor names into meaningful chunks. In this paper,
we propose a fully automated self-supervised framework, Sensei, which can learn
to segment sensor names without any human annotation. Specifically, we employ a
neural language model to capture the underlying sensor naming structure and
then induce self-supervision based on information from the language model to
build the segmentation model. Extensive experiments on five real-world
buildings comprising thousands of sensors demonstrate the superiority of Sensei
over baseline methods.
- Abstract(参考訳): センサー名は、一般的にはアルファ数値文字列であり、スマートビルディングアプリケーションのデプロイに必要なセンサーのキーコンテキスト(例えば、機能と位置)をエンコードする。
しかしセンサーの名称は、異なる構造としばしば難解な語彙を用いて、ビルベンダー固有の方法でキュレートされる。
そのため、センサー名を意味のあるチャンクに分割するだけでも、ビルド毎にアノテートするための膨大な手作業が必要になります。
本稿では,人間のアノテーションを使わずにセンサ名をセグメント化できる,完全自動自己管理フレームワークSenseiを提案する。
具体的には,神経言語モデルを用いてセンサの命名構造を捉え,言語モデルからの情報に基づいて自己スーパービジョンを誘導し,セグメンテーションモデルを構築する。
何千ものセンサからなる5つの実世界の建物に関する広範囲な実験は、senseiがベースライン方式よりも優れていることを示している。
関連論文リスト
- SensorLLM: Aligning Large Language Models with Motion Sensors for Human Activity Recognition [9.072495000412943]
我々は、Large Language Models(LLM)が人間の活動認識(HAR)のような時系列タスクを理解できるようにすることで、ウェアラブルセンサー技術とパーソナライズされたAIアシスタントのギャップを埋める。
センサデータタスクに対するLLMのポテンシャルを解放する2段階フレームワークであるSensorLLMを紹介する。
我々は,SensorLLMが効果的なセンサ学習者,推論者,学習者へと進化し,HARタスクのための多様なデータセットをまたいで一般化できることを示す。
論文 参考訳(メタデータ) (2024-10-14T15:30:41Z) - Locate Anything on Earth: Advancing Open-Vocabulary Object Detection for Remote Sensing Community [50.16478515591924]
LAEタスクのための最初のオープンボキャブラリ基礎オブジェクト検出器であるLAE-DINOモデルを提案し,訓練する。
我々は、確立されたリモートセンシングベンチマークDIOR、DOTAv2.0、および新たに発表された80クラスのLEE-80Cベンチマークについて実験を行った。
その結果, LAE-1Mデータセットの利点と, LAE-DINO法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-17T06:24:43Z) - Layout Agnostic Human Activity Recognition in Smart Homes through Textual Descriptions Of Sensor Triggers (TDOST) [0.22354214294493352]
スマートホームにおけるヒューマンアクティビティ認識(HAR)システムのためのレイアウトに依存しないモデリング手法を開発した。
我々は、周囲のトリガー条件をカプセル化するセンサートリガーのテキスト記述(TDOST)を生成する。
我々は、ベンチマークしたCASASデータセットの実験を通して、見知らぬスマートホームにおけるTDOSTベースのモデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-20T20:37:44Z) - Low-cost Efficient Wireless Intelligent Sensor (LEWIS) for Engineering,
Research, and Education [72.2614468437919]
センサによって決定を下すスマートシティのビジョンは、これまで実現されていない。
土木技術者はセンサー技術に関する知識を欠いている。
センサーに関連する電気部品とコンピュータの知識は、土木技術者にとって依然として課題である。
論文 参考訳(メタデータ) (2023-03-23T21:49:26Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Ant Colony Inspired Machine Learning Algorithm for Identifying and
Emulating Virtual Sensors [0.0]
他のセンサーに基づいて特定のセンサーの出力をエミュレートすることが可能である。
読み出しをエミュレートできるセンサーのサブセットを特定するために、センサーはクラスタにグループ化されなければならない。
本稿では,このようなシステムにおける仮想センサを実現するために,エンドツーエンドのアルゴリズムソリューションを提案する。
論文 参考訳(メタデータ) (2020-11-02T09:06:14Z) - Every Action Based Sensor [18.488318231443944]
エルドマンのアクションベースセンサーの理論は、基本的な情報要求を特徴づける古典的なアプローチである。
このようなセンサをバックチェーン計画を用いて取得する以前の方法は、いくつかのセンサを見落としている。
既存の治療が不十分な計画においても、アクションベースのセンサーの作り方を示す。
論文 参考訳(メタデータ) (2020-06-07T00:30:54Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。