論文の概要: Privacy-Preserving Multi-Stage Fall Detection Framework with Semi-supervised Federated Learning and Robotic Vision Confirmation
- arxiv url: http://arxiv.org/abs/2507.10474v1
- Date: Mon, 14 Jul 2025 16:55:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:25.560272
- Title: Privacy-Preserving Multi-Stage Fall Detection Framework with Semi-supervised Federated Learning and Robotic Vision Confirmation
- Title(参考訳): 半教師付きフェデレーション学習とロボットビジョン確認によるプライバシ保護多段階転倒検出フレームワーク
- Authors: Seyed Alireza Rahimi Azghadi, Truong-Thanh-Hung Nguyen, Helene Fournier, Monica Wachowicz, Rene Richard, Francis Palma, Hung Cao,
- Abstract要約: 本稿では,複数の相補的システムを用いて転倒を検出するフレームワークを提案する。
ウェアラブルデバイスとエッジデバイスは、第1システム内の転倒シナリオを特定する。
ロボットに搭載されたカメラを備えたエッジデバイス上で動作している視覚ベースの検知システムを用いて、倒れた人を認識する。
- 参考スコア(独自算出の注目度): 1.8637109806158185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The aging population is growing rapidly, and so is the danger of falls in older adults. A major cause of injury is falling, and detection in time can greatly save medical expenses and recovery time. However, to provide timely intervention and avoid unnecessary alarms, detection systems must be effective and reliable while addressing privacy concerns regarding the user. In this work, we propose a framework for detecting falls using several complementary systems: a semi-supervised federated learning-based fall detection system (SF2D), an indoor localization and navigation system, and a vision-based human fall recognition system. A wearable device and an edge device identify a fall scenario in the first system. On top of that, the second system uses an indoor localization technique first to localize the fall location and then navigate a robot to inspect the scenario. A vision-based detection system running on an edge device with a mounted camera on a robot is used to recognize fallen people. Each of the systems of this proposed framework achieves different accuracy rates. Specifically, the SF2D has a 0.81% failure rate equivalent to 99.19% accuracy, while the vision-based fallen people detection achieves 96.3% accuracy. However, when we combine the accuracy of these two systems with the accuracy of the navigation system (95% success rate), our proposed framework creates a highly reliable performance for fall detection, with an overall accuracy of 99.99%. Not only is the proposed framework safe for older adults, but it is also a privacy-preserving solution for detecting falls.
- Abstract(参考訳): 高齢化は急速に進んでおり、高齢者の転倒の危険性も大きい。
怪我の主な原因は減少しており、時間内の検出は医療費と回復時間を大幅に節約することができる。
しかし、タイムリーに介入し、不必要な警報を避けるためには、ユーザに関するプライバシー問題に対処しながら、検出システムは効果的で信頼性の高いものにする必要がある。
本研究では, 半教師付き学習型転倒検出システム (SF2D) , 屋内位置認識ナビゲーションシステム, 視覚に基づく転倒認識システムを提案する。
ウェアラブルデバイスとエッジデバイスは、第1システム内の転倒シナリオを特定する。
その上、第2のシステムは、まず屋内のローカライズ技術を使用して、落下箇所をローカライズし、次にロボットをナビゲートしてシナリオを検査する。
ロボットに搭載されたカメラを備えたエッジデバイス上で動作している視覚ベースの検知システムを用いて、倒れた人を認識する。
提案するフレームワークの各システムは,それぞれ異なる精度を達成している。
具体的には、SF2Dは 0.81% の故障率で 99.19% の精度で、視力に基づく転倒者検出は 96.3% の精度で達成されている。
しかし、これらの2つのシステムの精度とナビゲーションシステムの精度(95%の成功率)を組み合わせると、本提案手法は転倒検出の信頼性が高く、全体の精度は99.99%となる。
提案されているフレームワークは、高齢者にとって安全なだけでなく、転倒を検出するためのプライバシ保護ソリューションでもある。
関連論文リスト
- Computationally efficient non-Intrusive pre-impact fall detection system [3.686808512438363]
既存の影響前の転倒検知システムは精度が高いが、被検体に侵入するか、転倒検出に大量の計算資源を必要とする。
本研究では,非侵襲的かつ計算効率のよいプリインパクト・フォール検出システムを提案する。
論文 参考訳(メタデータ) (2025-07-04T16:41:10Z) - ElderFallGuard: Real-Time IoT and Computer Vision-Based Fall Detection System for Elderly Safety [0.0]
ElderFallGuardは、高齢者の安全を高め、インテリジェントでタイムリーなアラートを通じて介護者の心の平和を提供する、視覚ベースのIoTソリューションだ。
システムは、イベントのスナップショットを含む警告を、カスタムボットを介して指定されたTelegramグループに即座に送信し、通知過負荷を防止するロジックを組み込んだ。我々のデータセットの厳密なテストは、例外的な結果を示し、100%精度、精度、リコール、F1スコアを達成した。
論文 参考訳(メタデータ) (2025-05-17T05:09:47Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Detecting and Mitigating System-Level Anomalies of Vision-Based Controllers [7.095058159492494]
ビジョンベースのコントローラは、新規またはアウト・オブ・ディストリビューションの入力に直面したとき、誤った予測を行うことができる。
本研究では,そのような閉ループ,システムレベルの障害を検知・緩和する実行時異常モニタを提案する。
本提案手法は, 視覚に基づくタクシー制御システムを用いた自律型航空機タクシーシステムにおいて, 提案手法の有効性を検証したものである。
論文 参考訳(メタデータ) (2023-09-23T20:33:38Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - BlockTheFall: Wearable Device-based Fall Detection Framework Powered by
Machine Learning and Blockchain for Elderly Care [0.44739156031315913]
ウェアラブルデバイスベースの転倒検出フレームワークである"BlockTheFall"は、ウェアラブルデバイスからのセンサデータを使用して、フォールをリアルタイムで検出する。
収集したセンサデータを機械学習アルゴリズムを用いて解析する。
提案するフレームワークは、ブロックチェーン技術を使用して、フォールイベントデータを格納し、検証する。
論文 参考訳(メタデータ) (2023-06-10T14:18:44Z) - Monocular 2D Camera-based Proximity Monitoring for Human-Machine
Collision Warning on Construction Sites [1.7223564681760168]
機械事故は建設現場の被害の主な原因の1つである。
人間と機械の衝突を避けるための労働者の近さをモニタリングすることは、建設安全管理に大きな関心を喚起した。
本研究では、通常の2Dカメラのみを用いた近接監視のための新しいフレームワークを提案し、リアルタイムの人間と機械の衝突警告を実現する。
論文 参考訳(メタデータ) (2023-05-29T07:47:27Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。