論文の概要: Visual Context-Aware Person Fall Detection
- arxiv url: http://arxiv.org/abs/2404.08088v1
- Date: Thu, 11 Apr 2024 19:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 16:34:33.650715
- Title: Visual Context-Aware Person Fall Detection
- Title(参考訳): 視覚的コンテキスト認識による転倒検出
- Authors: Aleksander Nagaj, Zenjie Li, Dim P. Papadopoulos, Kamal Nasrollahi,
- Abstract要約: 画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
- 参考スコア(独自算出の注目度): 52.49277799455569
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the global population ages, the number of fall-related incidents is on the rise. Effective fall detection systems, specifically in healthcare sector, are crucial to mitigate the risks associated with such events. This study evaluates the role of visual context, including background objects, on the accuracy of fall detection classifiers. We present a segmentation pipeline to semi-automatically separate individuals and objects in images. Well-established models like ResNet-18, EfficientNetV2-S, and Swin-Small are trained and evaluated. During training, pixel-based transformations are applied to segmented objects, and the models are then evaluated on raw images without segmentation. Our findings highlight the significant influence of visual context on fall detection. The application of Gaussian blur to the image background notably improves the performance and generalization capabilities of all models. Background objects such as beds, chairs, or wheelchairs can challenge fall detection systems, leading to false positive alarms. However, we demonstrate that object-specific contextual transformations during training effectively mitigate this challenge. Further analysis using saliency maps supports our observation that visual context is crucial in classification tasks. We create both dataset processing API and segmentation pipeline, available at https://github.com/A-NGJ/image-segmentation-cli.
- Abstract(参考訳): 世界人口の高齢化に伴い、秋関連の事件が増えている。
効果的な転倒検知システムは、特に医療分野において、このような事象に関連するリスクを軽減するために不可欠である。
本研究では,背景オブジェクトを含む視覚的コンテキストが転倒検出分類器の精度に与える影響を評価する。
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ResNet-18、EfficientNetV2-S、Swin-Smallといった確立したモデルがトレーニングされ、評価される。
トレーニング中、ピクセルベースの変換がセグメント化されたオブジェクトに適用され、モデルがセグメント化せずに生画像上で評価される。
以上の結果から,視覚的コンテキストが転倒検出に与える影響が示唆された。
画像背景へのガウスのぼかしの適用は、すべてのモデルの性能と一般化能力を顕著に改善する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
しかし、トレーニング中のオブジェクト固有の文脈変換がこの課題を効果的に軽減することを示す。
サリエンシマップを用いたさらなる分析は、視覚コンテキストが分類タスクにおいて重要であるという我々の観察を支援する。
データセット処理APIとセグメンテーションパイプラインの両方を作成し、https://github.com/A-NGJ/image-segmentation-cliで公開しています。
関連論文リスト
- Leveraging Foundation Models To learn the shape of semi-fluid deformable objects [0.7895162173260983]
過去10年間、非流動性のある変形可能な物体を特徴付け、操作する研究者によって強い関心が浮かび上がった。
本稿では,動作制御対象の情報として機能する安定な特徴を定義するために,溶接プールの特徴付けの課題に対処する。
基礎モデルからより小さな生成モデルへの知識蒸留の性能は、変形可能な物体のキャラクタリゼーションにおいて顕著な結果を示す。
論文 参考訳(メタデータ) (2024-11-25T13:41:35Z) - PEEKABOO: Hiding parts of an image for unsupervised object localization [7.161489957025654]
教師なしの方法でオブジェクトをローカライズすることは、重要な視覚情報がないために大きな課題となる。
教師なしオブジェクトローカライゼーションのための単段階学習フレームワークPEEKABOOを提案する。
キーとなるアイデアは、画像の一部を選択的に隠し、残りの画像情報を活用して、明示的な監督なしにオブジェクトの位置を推測することである。
論文 参考訳(メタデータ) (2024-07-24T20:35:20Z) - Lidar Annotation Is All You Need [0.0]
本稿では,畳み込みニューラルネットワークを用いたマルチセンサ構成による画像分割の効率向上を目的とする。
当社のアプローチにおける重要な革新は、点雲からの粗い接地トラスマスクに対処する、マスク付き損失である。
ベンチマークデータセットに対するアプローチの実験的検証は、高品質の画像セグメンテーションモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-11-08T15:55:18Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Free Lunch for Co-Saliency Detection: Context Adjustment [14.688461235328306]
市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
論文 参考訳(メタデータ) (2021-08-04T14:51:37Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。