論文の概要: Towards Privacy-Supporting Fall Detection via Deep Unsupervised
RGB2Depth Adaptation
- arxiv url: http://arxiv.org/abs/2308.12049v1
- Date: Wed, 23 Aug 2023 10:35:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 14:38:42.629963
- Title: Towards Privacy-Supporting Fall Detection via Deep Unsupervised
RGB2Depth Adaptation
- Title(参考訳): 深部教師なしRGB2Depth適応によるプライバシ・サポーティング・フォール検出に向けて
- Authors: Hejun Xiao, Kunyu Peng, Xiangsheng Huang, Alina Roitberg1, Hao Li,
Zhaohui Wang and Rainer Stiefelhagen
- Abstract要約: 転倒検知は、システムが警告をトリガーし、転倒を経験した場合の迅速な介入を可能にするため、健康モニタリングにおいて重要なタスクである。
本稿では,RGB学習モデルを奥行き領域に適用可能なプライバシ支援ソリューションを提案する。
本稿では,ラベル付きRGBデータと未ラベル深度データを活用する,教師なしRGB to Depth (RGB2Depth) クロスモーダルドメイン適応手法を提案する。
- 参考スコア(独自算出の注目度): 31.097512110625964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fall detection is a vital task in health monitoring, as it allows the system
to trigger an alert and therefore enabling faster interventions when a person
experiences a fall. Although most previous approaches rely on standard RGB
video data, such detailed appearance-aware monitoring poses significant privacy
concerns. Depth sensors, on the other hand, are better at preserving privacy as
they merely capture the distance of objects from the sensor or camera, omitting
color and texture information. In this paper, we introduce a privacy-supporting
solution that makes the RGB-trained model applicable in depth domain and
utilizes depth data at test time for fall detection. To achieve cross-modal
fall detection, we present an unsupervised RGB to Depth (RGB2Depth) cross-modal
domain adaptation approach that leverages labelled RGB data and unlabelled
depth data during training. Our proposed pipeline incorporates an intermediate
domain module for feature bridging, modality adversarial loss for modality
discrimination, classification loss for pseudo-labeled depth data and labeled
source data, triplet loss that considers both source and target domains, and a
novel adaptive loss weight adjustment method for improved coordination among
various losses. Our approach achieves state-of-the-art results in the
unsupervised RGB2Depth domain adaptation task for fall detection. Code is
available at https://github.com/1015206533/privacy_supporting_fall_detection.
- Abstract(参考訳): 転倒検知は、システムが警告をトリガーし、転倒を経験した場合の迅速な介入を可能にするため、健康モニタリングにおいて重要なタスクである。
従来のアプローチのほとんどは標準的なrgbビデオデータに依存しているが、このような詳細な外観認識監視はプライバシーの懸念を招いている。
一方、深度センサーは、センサーやカメラから物体の距離を捉え、色やテクスチャ情報を省略するため、プライバシーを守るのに優れている。
本稿では,RGB学習モデルを深度領域に適用し,テスト時の深度データを用いて転倒検出を行うプライバシ支援ソリューションを提案する。
クロスモーダルフォール検出を実現するために,ラベル付きrgbデータとラベルなし深度データを活用した教師なしrgb to depth (rgb2depth)クロスモーダルドメイン適応手法を提案する。
提案するパイプラインは,特徴ブリッジのための中間ドメインモジュール,モダリティ識別のためのモダリティ逆損失,擬似ラベル深度データとラベル付きソースデータの分類損失,ソース領域とターゲット領域の両方を考慮した三重項損失,各種損失間の協調性を改善する新しい適応損失重み調整手法を組み込んだものである。
本手法は転倒検出のための教師なしrgb2depthドメイン適応タスクにおいて最先端の結果を得る。
コードはhttps://github.com/1015206533/privacy_supporting_fall_detectionで入手できる。
関連論文リスト
- ShadowSense: Unsupervised Domain Adaptation and Feature Fusion for
Shadow-Agnostic Tree Crown Detection from RGB-Thermal Drone Imagery [7.2038295985918825]
本稿では,リモートセンシングデータから木冠の影を検出する新しい手法を提案する。
提案手法(ShadowSense)は完全に自己教師型であり,ソースドメインアノテーションを使わずにドメインの敵対的トレーニングを活用する。
その後、両モードの相補的な情報を融合し、RGBで訓練された検出器の予測を効果的に改善する。
論文 参考訳(メタデータ) (2023-10-24T22:01:14Z) - RGB-D Grasp Detection via Depth Guided Learning with Cross-modal
Attention [14.790193023912973]
本稿では,DGCAN(Depth Guided Cross-modal Attention Network)を用いた新しい学習手法を提案する。
深度チャネルに記録された幾何情報をよりよく活用するために、全6次元矩形表現を専用に考慮して採用する。
余分な掴み深度の予測は特徴学習を大幅に強化し、より正確な結果をもたらす。
論文 参考訳(メタデータ) (2023-02-28T02:41:27Z) - Learning Dual-Fused Modality-Aware Representations for RGBD Tracking [67.14537242378988]
従来のRGBオブジェクトトラッキングと比較して、奥行きモードの追加は、ターゲットとバックグラウンドの干渉を効果的に解決することができる。
既存のRGBDトラッカーでは2つのモードを別々に使用しており、特に有用な共有情報は無視されている。
DMTracker(Dual-fused Modality-aware Tracker)を提案する。DMTrackerは,RGBDのロバストな追跡のために,対象対象物の情報的および識別的表現を学習することを目的としている。
論文 参考訳(メタデータ) (2022-11-06T07:59:07Z) - Unsupervised Spike Depth Estimation via Cross-modality Cross-domain Knowledge Transfer [53.413305467674434]
スパイク深度推定をサポートするためにオープンソースのRGBデータを導入し,そのアノテーションと空間情報を活用する。
教師なしスパイク深さ推定を実現するために,クロスモーダルクロスドメイン(BiCross)フレームワークを提案する。
提案手法は,RGB指向の教師なし深度推定法と比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-08-26T09:35:20Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - RGB-D Salient Object Detection with Ubiquitous Target Awareness [37.6726410843724]
我々は、新しい深度認識フレームワークを用いて、RGB-D有向物体検出問題を解くための最初の試みを行う。
本稿では,RGB-D SODタスクにおける3つの課題を解決するために,ユビキタスターゲット意識(UTA)ネットワークを提案する。
提案するUTAネットワークは深度フリーで,43FPSでリアルタイムに動作可能である。
論文 参考訳(メタデータ) (2021-09-08T04:27:29Z) - Learning Selective Mutual Attention and Contrast for RGB-D Saliency
Detection [145.4919781325014]
クロスモーダル情報を効果的に融合する方法は、RGB-Dの有能な物体検出の鍵となる問題である。
多くのモデルは特徴融合戦略を用いるが、低次点対点融合法によって制限されている。
本研究では,異なるモダリティから注目とコンテキストを融合させることにより,新たな相互注意モデルを提案する。
論文 参考訳(メタデータ) (2020-10-12T08:50:10Z) - Unsupervised Domain Adaptation through Inter-modal Rotation for RGB-D
Object Recognition [31.24587317555857]
本稿では,RGBと深度画像のモーダル間関係を利用して,合成領域から実領域へのシフトを低減する新しいRGB-D DA法を提案する。
提案手法は,主認識タスクに加えて,RGBと深度画像の相対的回転を予測するプリテキストタスクである畳み込みニューラルネットワークを訓練することで解決する。
論文 参考訳(メタデータ) (2020-04-21T13:53:55Z) - UC-Net: Uncertainty Inspired RGB-D Saliency Detection via Conditional
Variational Autoencoders [81.5490760424213]
データラベリングプロセスから学習することで、RGB-Dサリエンシ検出に不確実性を利用するための第1のフレームワーク(UCNet)を提案する。
そこで本研究では,サリエンシデータラベリングにヒントを得て,確率的RGB-Dサリエンシ検出ネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-13T04:12:59Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。