論文の概要: Compressive sensing based privacy for fall detection
- arxiv url: http://arxiv.org/abs/2001.03463v1
- Date: Fri, 10 Jan 2020 14:26:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 23:14:36.192101
- Title: Compressive sensing based privacy for fall detection
- Title(参考訳): 転倒検出のための圧縮センシングに基づくプライバシー
- Authors: Ronak Gupta, Prashant Anand, Santanu Chaudhury, Brejesh Lall, Sanjay
Singh
- Abstract要約: 3DNetアーキテクチャは、フォール検出のための3Dインセプションモジュールで構成されている。
転倒検出のための提案されたフレームワークは、多種多様な測定行列に対して十分に柔軟である。
以上の結果から,3D ConvNet の性能はセンサの異なる行列で変化しないことがわかった。
- 参考スコア(独自算出の注目度): 9.078294945077179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fall detection holds immense importance in the field of healthcare, where
timely detection allows for instant medical assistance. In this context, we
propose a 3D ConvNet architecture which consists of 3D Inception modules for
fall detection. The proposed architecture is a custom version of Inflated 3D
(I3D) architecture, that takes compressed measurements of video sequence as
spatio-temporal input, obtained from compressive sensing framework, rather than
video sequence as input, as in the case of I3D convolutional neural network.
This is adopted since privacy raises a huge concern for patients being
monitored through these RGB cameras. The proposed framework for fall detection
is flexible enough with respect to a wide variety of measurement matrices. Ten
action classes randomly selected from Kinetics-400 with no fall examples, are
employed to train our 3D ConvNet post compressive sensing with different types
of sensing matrices on the original video clips. Our results show that 3D
ConvNet performance remains unchanged with different sensing matrices. Also,
the performance obtained with Kinetics pre-trained 3D ConvNet on compressively
sensed fall videos from benchmark datasets is better than the state-of-the-art
techniques.
- Abstract(参考訳): 転倒検出は、タイムリーな検出が即時医療支援を可能にする医療分野において非常に重要である。
本研究では,フォール検出のための3次元インセプションモジュールからなる3次元ConvNetアーキテクチャを提案する。
提案アーキテクチャはInflated 3D(I3D)アーキテクチャのカスタムバージョンであり、I3D畳み込みニューラルネットワークの場合のように、ビデオシーケンスを入力としてではなく圧縮センシングフレームワークから得られる時空間入力として圧縮されたビデオシーケンスの測定を行う。
これは、プライバシーが、これらのRGBカメラを通して監視されている患者に大きな関心を抱くため、採用されている。
転倒検出のためのフレームワークは、多種多様な測定行列に対して十分に柔軟である。
Kinetics-400からランダムに選択された10のアクションクラスは、元のビデオクリップ上のさまざまな種類のセンシング行列を用いて、圧縮センシング後の3D ConvNetをトレーニングするために使用される。
以上の結果から,3D ConvNetの性能はセンサの異なる行列で変化しないことがわかった。
また,速度論的に事前学習した3d convnetによるベンチマークデータセットからの圧縮センシングフォールビデオの性能は,最先端技術よりも優れている。
関連論文リスト
- EmbodiedSAM: Online Segment Any 3D Thing in Real Time [61.2321497708998]
身体的なタスクは、エージェントが探索と同時に3Dシーンを完全に理解する必要がある。
オンライン、リアルタイム、微粒化、高度に一般化された3D知覚モデルは、必死に必要である。
論文 参考訳(メタデータ) (2024-08-21T17:57:06Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - SpATr: MoCap 3D Human Action Recognition based on Spiral Auto-encoder and Transformer Network [1.4732811715354455]
SpATr(Spiral Auto-Encoder and Transformer Network)と呼ばれる3次元動作認識のための新しいアプローチを提案する。
スパイラル畳み込みに基づく軽量オートエンコーダを用いて,各3次元メッシュから空間幾何学的特徴を抽出する。
提案手法は,Babel,MoVi,BMLrubの3つの顕著な3次元行動データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-06-30T11:49:00Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - Point2Seq: Detecting 3D Objects as Sequences [58.63662049729309]
我々は、ポイントクラウドから3次元オブジェクトを検出するためのシンプルで効果的なフレームワーク、Point2Seqを提案する。
我々は,各3Dオブジェクトを単語列とみなし,その3Dオブジェクト検出タスクを,自動回帰的に3Dシーンからの単語の復号化として再構成する。
論文 参考訳(メタデータ) (2022-03-25T00:20:31Z) - Ground-aware Monocular 3D Object Detection for Autonomous Driving [6.5702792909006735]
1台のRGBカメラで環境中の物体の位置と向きを推定することは、低コストの都市自動運転と移動ロボットにとって難しい課題である。
既存のアルゴリズムのほとんどは、2D-3D対応における幾何学的制約に基づいており、これは一般的な6Dオブジェクトのポーズ推定に由来する。
深層学習の枠組みにおいて、そのようなアプリケーション固有の事前知識を完全に活用するための新しいニューラルネットワークモジュールを導入する。
論文 参考訳(メタデータ) (2021-02-01T08:18:24Z) - 2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video
Recognition [84.697097472401]
Ada3Dは、インスタンス固有の3D利用ポリシーを学び、3Dネットワークで使用するフレームと畳み込み層を決定する条件付き計算フレームワークです。
本手法は,最先端の3dモデルと同様の精度を実現し,異なるデータセット間での計算量を20%-50%削減できることを実証する。
論文 参考訳(メタデータ) (2020-12-29T21:40:38Z) - Self-supervised Video Representation Learning by Uncovering
Spatio-temporal Statistics [74.6968179473212]
本稿では,自己指導型学習問題に対処する新しい前提課題を提案する。
最大運動の空間的位置や支配的な方向など,分割的・時間的統計的な要約を連続して計算する。
ビデオフレームを入力として与えられた統計的要約を得るために、ニューラルネットワークを構築して訓練する。
論文 参考訳(メタデータ) (2020-08-31T08:31:56Z) - Making a Case for 3D Convolutions for Object Segmentation in Videos [16.167397418720483]
本研究では,3次元畳み込みネットワークが高精細な物体分割などの高密度映像予測タスクに効果的に適用可能であることを示す。
本稿では,新しい3Dグローバル・コンボリューション・レイヤと3Dリファインメント・モジュールからなる3Dデコーダアーキテクチャを提案する。
提案手法は,DAVIS'16 Unsupervised, FBMS, ViSalベンチマークにおいて,既存の最先端技術よりもはるかに優れている。
論文 参考訳(メタデータ) (2020-08-26T12:24:23Z) - Weakly Supervised 3D Object Detection from Point Clouds [27.70180601788613]
3Dオブジェクト検出は、特定のクラスに属するオブジェクトの3D境界ボックスを検出し、ローカライズすることを目的としている。
既存の3Dオブジェクト検出器は、トレーニング中にアノテーション付き3Dバウンディングボックスに依存している。
基礎となる真理3D境界ボックスを使わずに点雲からの3Dオブジェクト検出を弱教師付きで行うためのフレームワークであるVS3Dを提案する。
論文 参考訳(メタデータ) (2020-07-28T03:30:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。