論文の概要: Quantifying Uncertainty in Machine Learning-Based Pervasive Systems: Application to Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2512.09775v1
- Date: Wed, 10 Dec 2025 15:56:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.581314
- Title: Quantifying Uncertainty in Machine Learning-Based Pervasive Systems: Application to Human Activity Recognition
- Title(参考訳): 機械学習に基づく普及システムにおける不確かさの定量化:人間の活動認識への応用
- Authors: Vladimir Balditsyn, Philippe Lalanda, German Vega, Stéphanie Chollet,
- Abstract要約: 本稿では,機械学習システムにおける不確実性を定量化することを提案する。
本稿では,実行時のモデル予測の妥当性を評価するために,選択した手法の集合を適応し,共同利用することを提案する。
その結果,アプローチの妥当性を実証し,ドメインの専門家に提供された支援について詳細に考察した。
- 参考スコア(独自算出の注目度): 0.2740273306918099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent convergence of pervasive computing and machine learning has given rise to numerous services, impacting almost all areas of economic and social activity. However, the use of AI techniques precludes certain standard software development practices, which emphasize rigorous testing to ensure the elimination of all bugs and adherence to well-defined specifications. ML models are trained on numerous high-dimensional examples rather than being manually coded. Consequently, the boundaries of their operating range are uncertain, and they cannot guarantee absolute error-free performance. In this paper, we propose to quantify uncertainty in ML-based systems. To achieve this, we propose to adapt and jointly utilize a set of selected techniques to evaluate the relevance of model predictions at runtime. We apply and evaluate these proposals in the highly heterogeneous and evolving domain of Human Activity Recognition (HAR). The results presented demonstrate the relevance of the approach, and we discuss in detail the assistance provided to domain experts.
- Abstract(参考訳): 最近の普及型コンピューティングと機械学習の収束により、多くのサービスが生まれ、経済と社会活動のほぼすべての領域に影響を及ぼした。
しかし、AI技術の使用は、すべてのバグの排除と明確に定義された仕様の遵守を保証する厳格なテストを強調する、特定の標準ソフトウェア開発プラクティスを妨げる。
MLモデルは、手動でコーディングされるのではなく、多くの高次元の例に基づいて訓練される。
したがって、動作範囲の境界は不確実であり、絶対誤差のない性能を保証できない。
本稿では,MLシステムにおける不確実性を定量化する手法を提案する。
そこで本研究では,実行時のモデル予測の妥当性を評価するために,選択した手法の集合を適応・共同利用することを提案する。
本研究では,これらの提案をHAR(Human Activity Recognition)の高度に異質かつ進化した領域に適用し,評価する。
その結果,アプローチの妥当性を実証し,ドメインの専門家に提供された支援について詳細に考察した。
関連論文リスト
- Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - No Free Delivery Service: Epistemic limits of passive data collection in complex social systems [11.990018360916553]
複雑な社会システムにおいて広く考慮されている推論設定において、列車試験のパラダイムは正当化を欠いているだけでなく、リスク推定装置に対して実際に無効であることを示す。
私は、広く使われているMovieLensベンチマークを通じてこれらの結果を説明し、これらの結果が社会システムにおけるAIに与える影響について議論することで結論付けています。
論文 参考訳(メタデータ) (2024-11-20T19:01:03Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Using Uncertainty Quantification to Characterize and Improve Out-of-Domain Learning for PDEs [44.890946409769924]
ニューラル演算子(NO)は特に有望な量子化として出現している。
本研究では,複数のNOをアンサンブルすることで,高いエラー領域を同定し,不確実性の高い推定を行うことができることを示す。
次に、ProbConservフレームワーク内でこれらのよく校正されたUQ推定を使ってモデルを更新するOperator-ProbConservを紹介します。
論文 参考訳(メタデータ) (2024-03-15T19:21:27Z) - Weak Supervision Performance Evaluation via Partial Identification [46.73061437177238]
Programmatic Weak Supervision (PWS) は、地上の真理ラベルに直接アクセスすることなく、教師付きモデルトレーニングを可能にする。
本稿では,モデル評価を部分的同定問題としてフレーミングすることで,この問題に対処する新しい手法を提案する。
提案手法は,従来の弱監督評価手法において,ラベル付きデータを必要とせず,重要な指標に信頼性のあるバウンダリを導出する。
論文 参考訳(メタデータ) (2023-12-07T07:15:11Z) - Truthful Meta-Explanations for Local Interpretability of Machine
Learning Models [10.342433824178825]
本稿では,忠実度に基づく計量である真理度測定に基づいて,局所的メタ説明手法を提案する。
本研究は,すべての概念を具体的に定義し,実験を通じて,技術と計量の両立を実証する。
論文 参考訳(メタデータ) (2022-12-07T08:32:04Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Uncertainty-Driven Action Quality Assessment [11.958132175629368]
本稿では,複数の判定スコアの多様性を捉えるために,不確実性駆動型AQA (UD-AQA) という新しい確率モデルを提案する。
我々は,AQA回帰損失の再重み付けに使用される各予測の不確かさを推定する。
提案手法は,オリンピックイベントMTL-AQAとFineDivingの3つのベンチマークと,手術スキルJIGSAWSデータセットの3つのベンチマークで比較結果を得た。
論文 参考訳(メタデータ) (2022-07-29T07:21:15Z) - BayesCap: Bayesian Identity Cap for Calibrated Uncertainty in Frozen
Neural Networks [50.15201777970128]
本研究では,凍結モデルに対するベイズIDマッピングを学習し,不確実性の推定を可能にするBayesCapを提案する。
BayesCapは、元のデータセットのごく一部でトレーニングできる、メモリ効率のよいメソッドである。
本稿では,多種多様なアーキテクチャを用いた多種多様なタスクに対する本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-07-14T12:50:09Z) - Logic Constraints to Feature Importances [17.234442722611803]
AIモデルの"ブラックボックス"の性質は、診断技術や自律的ガイドなど、高度な分野における信頼性の高い応用の限界であることが多い。
近年の研究では、適切な解釈可能性のレベルが、モデル信頼性というより一般的な概念を強制できることが示されている。
本論文の基本的な考え方は,特定のタスクにおける特徴の重要性に関する人間の事前知識を利用して,モデルの適合のフェーズを整合的に支援することである。
論文 参考訳(メタデータ) (2021-10-13T09:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。