論文の概要: Personalized Fall Detection by Balancing Data with Selective Feedback Using Contrastive Learning
- arxiv url: http://arxiv.org/abs/2603.17148v1
- Date: Tue, 17 Mar 2026 21:22:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.39875
- Title: Personalized Fall Detection by Balancing Data with Selective Feedback Using Contrastive Learning
- Title(参考訳): コントラスト学習を用いた選択フィードバックを用いたデータバランシングによる個人的転倒検出
- Authors: Awatif Yasmin, Tarek Mahmud, Sana Alamgeer, Anne H. H. Ngu,
- Abstract要約: 本稿では,半教師付きクラスタリングとコントラスト学習を組み合わせたパーソナライズフレームワークを提案する。
このフレームワークは、TFS(Training from Scratch)、TL(Transfer Learning)、FewShot Learning(FewShot Learning)の3つの再トレーニング戦略に基づいて評価されている。
- 参考スコア(独自算出の注目度): 3.579200789027982
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized fall detection models can significantly improve accuracy by adapting to individual motion patterns, yet their effectiveness is often limited by the scarcity of real-world fall data and the dominance of non-fall feedback samples. This imbalance biases the model toward routine activities and weakens its sensitivity to true fall events. To address this challenge, we propose a personalization framework that combines semi-supervised clustering with contrastive learning to identify and balance the most informative user feedback samples. The framework is evaluated under three retraining strategies, including Training from Scratch (TFS), Transfer Learning (TL), and Few-Shot Learning (FSL), to assess adaptability across learning paradigms. Real-time experiments with ten participants show that the TFS approach achieves the highest performance, with up to a 25% improvement over the baseline, while FSL achieves the second-highest performance with a 7% improvement, demonstrating the effectiveness of selective personalization for real-world deployment.
- Abstract(参考訳): 個人化された転倒検出モデルは、個々の動きパターンに適応することで精度を著しく向上させることができるが、実際の転倒データの不足や、非転倒フィードバックサンプルの優位性によって、その効果は制限されることが多い。
この不均衡は、モデルが日常的な活動に偏り、真の転倒イベントに対する感度を弱める。
この課題に対処するために,半教師付きクラスタリングとコントラスト学習を組み合わせたパーソナライズフレームワークを提案する。
このフレームワークは,Scratch(TFS),Transfer Learning(TL),Few-Shot Learning(FSL)の3つのトレーニング戦略に基づいて評価され,学習パラダイム間の適応性を評価する。
10人の参加者によるリアルタイム実験では、TFSアプローチがベースラインよりも25%向上し、またFSLは7%改善した2番目に高いパフォーマンスを達成し、実世界のデプロイメントにおける選択的パーソナライズの有効性を実証している。
関連論文リスト
- Efficient RLVR Training via Weighted Mutual Information Data Selection [30.408074538619626]
強化学習(RL)は、大規模言語モデルの推論とアライメントを改善する上で中心的な役割を果たす。
重み付けされた相互情報目的に基づいて,情報誘導型データSmplinG metHod for RL Trainingを紹介する。
予測された不確実性低減は相補的な難易度と証拠に依存した成分に分解され、難易度のみの選択の根本的な制限が明らかになる。
論文 参考訳(メタデータ) (2026-03-02T14:25:07Z) - Dynamic Loss-Based Sample Reweighting for Improved Large Language Model Pretraining [55.262510814326035]
既存のリウェイト戦略は主にグループレベルのデータの重要性に焦点を当てている。
動的・インスタンスレベルのデータ再重み付けのための新しいアルゴリズムを提案する。
当社のフレームワークでは,冗長データや非形式データを優先的に再重み付けする戦略を考案することが可能です。
論文 参考訳(メタデータ) (2025-02-10T17:57:15Z) - Feasible Learning [78.6167929413604]
本稿では,サンプル中心の学習パラダイムであるFeasible Learning(FL)を紹介する。
大規模言語モデルにおける画像分類, 年齢回帰, 好みの最適化といった経験的分析により, FLを用いて訓練したモデルでは, 平均的性能に限界があるものの, ERMと比較して改善された尾の挙動を示しながらデータから学習できることが実証された。
論文 参考訳(メタデータ) (2025-01-24T20:39:38Z) - Dataset Awareness is not Enough: Implementing Sample-level Tail Encouragement in Long-tailed Self-supervised Learning [16.110763554788445]
擬似ラベル情報を利用して動的温度と再重み付け戦略を推進し、自己教師付き長期学習に擬似ラベルを導入する。
我々は,温度パラメータにおける量認識の欠如を分析し,この不足を補うために再重み付けを用いて,サンプルレベルで最適なトレーニングパターンを実現する。
論文 参考訳(メタデータ) (2024-10-30T10:25:22Z) - FedSat: A Statistical Aggregation Approach for Class Imbalanced Clients in Federated Learning [2.5628953713168685]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習のための有望なパラダイムとして登場した。
本稿では,データの不均一性,すなわちラベルスキューネス,不足クラス,量スキューネスの3つの形態を扱うために設計された新しいFLアプローチであるFedSatを提案する。
さまざまなデータヘテロジニティ設定の実験は、FedSatが最先端のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-07-04T11:50:24Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - SemiSFL: Split Federated Learning on Unlabeled and Non-IID Data [34.49090830845118]
フェデレートラーニング(FL)は、複数のクライアントがネットワークエッジでプライベートデータ上で機械学習モデルを協調的にトレーニングできるようにするためのものだ。
クラスタリング正規化を取り入れて,ラベルなしおよび非IIDクライアントデータでSFLを実行する,Semi-supervised SFLシステムを提案する。
本システムは,訓練時間の3.8倍の高速化を実現し,目標精度を達成しつつ通信コストを約70.3%削減し,非IIDシナリオで最大5.8%の精度向上を実現する。
論文 参考訳(メタデータ) (2023-07-29T02:35:37Z) - Stabilizing and Improving Federated Learning with Non-IID Data and
Client Dropout [15.569507252445144]
ラベル分布スキューによるデータヘテロジェニーティは、フェデレート学習におけるモデル性能を制限する重要な障害であることが示されている。
クロスエントロピー損失を計算するための事前校正ソフトマックス関数を導入することで、シンプルで効果的なフレームワークを提案する。
非IIDデータとクライアントドロップアウトの存在下で、既存のベースラインよりも優れたモデル性能を示す。
論文 参考訳(メタデータ) (2023-03-11T05:17:59Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。