論文の概要: CARE: Contrastive Alignment for ADL Recognition from Event-Triggered Sensor Streams
- arxiv url: http://arxiv.org/abs/2510.16988v2
- Date: Thu, 30 Oct 2025 18:47:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.840247
- Title: CARE: Contrastive Alignment for ADL Recognition from Event-Triggered Sensor Streams
- Title(参考訳): CARE:イベントトリガーセンサストリームからのADL認識のためのコントラストアライメント
- Authors: Junhao Zhao, Zishuai Liu, Ruili Fang, Jin Lu, Linghan Zhang, Fei Dou,
- Abstract要約: イベントトリガーセンサストリーム(CARE)からのADL認識のためのコントラストアライメントを提案する。
CAREは、Sequence-Image Contrastive Alignment (SICA)による表現学習と、クロスエントロピーによる分類を共同で最適化するエンドツーエンドフレームワークである。
CAREは最先端のパフォーマンスを達成した(ミラノ89.8%、カイロ88.9%、京都7.3%)。
- 参考スコア(独自算出の注目度): 4.3359440506714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recognition of Activities of Daily Living (ADLs) from event-triggered ambient sensors is an essential task in Ambient Assisted Living, yet existing methods remain constrained by representation-level limitations. Sequence-based approaches preserve temporal order of sensor activations but are sensitive to noise and lack spatial awareness, while image-based approaches capture global patterns and implicit spatial correlations but compress fine-grained temporal dynamics and distort sensor layouts. Naive fusion (e.g., feature concatenation) fail to enforce alignment between sequence- and image-based representation views, underutilizing their complementary strengths. We propose Contrastive Alignment for ADL Recognition from Event-Triggered Sensor Streams (CARE), an end-to-end framework that jointly optimizes representation learning via Sequence-Image Contrastive Alignment (SICA) and classification via cross-entropy, ensuring both cross-representation alignment and task-specific discriminability. CARE integrates (i) time-aware, noise-resilient sequence encoding with (ii) spatially-informed and frequency-sensitive image representations, and employs (iii) a joint contrastive-classification objective for end-to-end learning of aligned and discriminative embeddings. Evaluated on three CASAS datasets, CARE achieves state-of-the-art performance (89.8% on Milan, 88.9% on Cairo, and 73.3% on Kyoto7) and demonstrates robustness to sensor malfunctions and layout variability, highlighting its potential for reliable ADL recognition in smart homes.
- Abstract(参考訳): イベントトリガー型環境センサからの日常生活活動(ADL)の認識は、環境支援型生活において不可欠な課題であるが、既存の手法は表現レベルの制限によって制限されている。
シーケンスベースアプローチは、センサアクティベーションの時間的順序を保ちながら、ノイズに敏感であり、空間的認識が欠如している一方、画像ベースアプローチは、グローバルパターンと暗黙の空間的相関を捉えながら、微細な時間的ダイナミクスと歪んだセンサレイアウトを圧縮する。
ネイブ融合(例えば、特徴結合)は、シーケンスと画像ベースの表現ビューのアライメントを強制せず、補完的な強みを過小評価する。
本稿では,SICA(Sequence- Image Contrastive Alignment)による表現学習とクロスエントロピーによる分類を共同で最適化し,クロスコントラストアライメントアライメントとタスク固有識別性を両立する,イベントトリガーセンサストリーム(CARE)からのADL認識のためのコントラストアライメントを提案する。
CARE の統合
(i)時間対応、耐雑音性、エンコーディング
(II)空間的インフォームド・周波数感応画像表現を用いて
三 整合・差別的埋め込みのエンドツーエンド学習のための共同コントラスト分類の目的
3つのCASASデータセットに基づいて評価され、CAREは最先端のパフォーマンス(ミラノ89.8%、カイロ88.9%、京都7.3%)を達成し、センサの故障とレイアウトの変動に対する堅牢性を示し、スマートホームにおける信頼性のあるADL認識の可能性を強調している。
関連論文リスト
- Generalized Decoupled Learning for Enhancing Open-Vocabulary Dense Perception [71.26728044621458]
DeCLIPは、CLIPを強化する新しいフレームワークで、自己認識モジュールを分離して、それぞれコンテンツ’と“コンテキスト’の機能を取得する。
2D検出とセグメンテーション、3Dインスタンスのセグメンテーション、ビデオインスタンスのセグメンテーション、6Dオブジェクトのポーズ推定など、幅広いタスクにわたる最先端のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2025-08-15T06:43:51Z) - Frequency-Semantic Enhanced Variational Autoencoder for Zero-Shot Skeleton-based Action Recognition [11.11236920942621]
ゼロショットスケルトンに基づくアクション認識は、トレーニング中に遭遇するカテゴリを超えてアクションを特定することを目的としている。
従来のアプローチは主に視覚的表現と意味的表現の整合に重点を置いてきた。
本稿では,周波数分解を用いたスケルトン意味表現学習のための周波数意味拡張変分オートエンコーダ (FS-VAE) を提案する。
論文 参考訳(メタデータ) (2025-06-27T12:44:08Z) - ADLGen: Synthesizing Symbolic, Event-Triggered Sensor Sequences for Human Activity Modeling [9.526073030523733]
ADLGenは、リアル、イベントトリガー、およびシンボリックセンサーシーケンスを合成するために設計された生成フレームワークである。
ADLGenは、統計的忠実度、セマンティックリッチネス、下流活動認識の検証において、ベースラインジェネレータよりも優れている。
論文 参考訳(メタデータ) (2025-05-23T14:52:48Z) - CoMatch: Dynamic Covisibility-Aware Transformer for Bilateral Subpixel-Level Semi-Dense Image Matching [31.42896369011162]
CoMatchは、ダイナミックな可視性認識と両側のサブピクセル精度を備えた、新しい半密度画像マッチングである。
可視性誘導トークン凝縮器を導入し、可視性スコアに照らして適応的にトークンを集約する。
ソースビューとターゲットビューの両方において、マッチング候補をサブピクセルレベルに洗練するために、微妙な相関モジュールが開発された。
論文 参考訳(メタデータ) (2025-03-31T10:17:01Z) - Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - DiffSSC: Semantic LiDAR Scan Completion using Denoising Diffusion Probabilistic Models [18.342569823885864]
3D LiDARセンサーは、車両の周囲の粗い点雲を捉えるために広く使われている。
このようなシステムは、これらの点雲の空白さと意味論の欠如により、隠蔽された領域と風景の隙間を知覚するのに苦労する。
我々は、より完全なシーン表現を目指して、生のLiDAR測定で得られたシーンにおける観測されていない幾何学と意味を共同で予測する。
我々は、自律運転データセットに対する我々のアプローチを評価し、SSCの最先端性能を達成し、既存のほとんどの手法を上回ります。
論文 参考訳(メタデータ) (2024-09-26T17:39:05Z) - Graph-Aware Contrasting for Multivariate Time-Series Classification [50.84488941336865]
既存のコントラスト学習手法は主に、時間的拡張とコントラスト技術による時間的一貫性を達成することに焦点を当てている。
MTSデータ間の空間的整合性を考慮したグラフ認識コントラストを提案する。
提案手法は,様々なMSS分類タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-11T02:35:22Z) - UIA-ViT: Unsupervised Inconsistency-Aware Method based on Vision
Transformer for Face Forgery Detection [52.91782218300844]
そこで我々は、UIA-ViTと呼ばれるビジョン変換器に基づく教師なし不整合認識手法を提案する。
自己注意機構により、パッチ埋め込み間の注意マップは自然に一貫性関係を表現し、一貫性表現学習に適した視覚変換器となる。
論文 参考訳(メタデータ) (2022-10-23T15:24:47Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。