論文の概要: Continual Learning for Human State Monitoring
- arxiv url: http://arxiv.org/abs/2207.00010v1
- Date: Wed, 29 Jun 2022 19:23:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 13:04:13.818870
- Title: Continual Learning for Human State Monitoring
- Title(参考訳): 人間状態モニタリングのための連続学習
- Authors: Federico Matteoni, Andrea Cossu, Claudio Gallicchio, Vincenzo
Lomonaco, Davide Bacciu
- Abstract要約: 人体状態モニタリングのための新しいCLベンチマークを2つ提案する。
我々は、新しい科目が継続的に追加される現実世界の環境を反映するベンチマークを慎重に設計した。
ベンチマークの結果から,一般的なCL戦略が,忘れを軽減できるかどうかを実証的に評価した。
- 参考スコア(独自算出の注目度): 20.8311956676327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Learning (CL) on time series data represents a promising but
under-studied avenue for real-world applications. We propose two new CL
benchmarks for Human State Monitoring. We carefully designed the benchmarks to
mirror real-world environments in which new subjects are continuously added. We
conducted an empirical evaluation to assess the ability of popular CL
strategies to mitigate forgetting in our benchmarks. Our results show that,
possibly due to the domain-incremental properties of our benchmarks, forgetting
can be easily tackled even with a simple finetuning and that existing
strategies struggle in accumulating knowledge over a fixed, held-out, test
subject.
- Abstract(参考訳): 時系列データの連続学習(CL)は、現実のアプリケーションにとって有望だが未研究の道である。
ヒト状態モニタリングのための2つの新しいCLベンチマークを提案する。
新しい被験者が継続的に追加される現実の環境を反映するベンチマークを慎重に設計しました。
ベンチマークの結果から,一般的なCL戦略の有効性を評価するための実証評価を行った。
以上より,ベンチマークのドメイン・インクリメンタルな性質により,単純な微調整であっても忘れられることや,固定された保持されたテスト対象に対する知識の蓄積に既存の戦略が苦労していることが判明した。
関連論文リスト
- Position: LLM Unlearning Benchmarks are Weak Measures of Progress [31.957968729934745]
既存のベンチマークでは、候補となる未学習手法の有効性について、過度に楽観的で誤解を招く可能性がある。
既存のベンチマークは特に、情報を忘れることと保持することの間に、さらに緩やかな依存関係をもたらす変更に対して脆弱である、と認識しています。
論文 参考訳(メタデータ) (2024-10-03T18:07:25Z) - Automating Dataset Updates Towards Reliable and Timely Evaluation of Large Language Models [81.27391252152199]
大規模言語モデル(LLM)は、さまざまな自然言語ベンチマークで素晴らしいパフォーマンスを実現している。
本稿では、データセットの自動更新と、その有効性に関する体系的な分析を提案する。
1) 類似したサンプルを生成するための戦略を模倣すること,2) 既存のサンプルをさらに拡張する戦略を拡張すること,である。
論文 参考訳(メタデータ) (2024-02-19T07:15:59Z) - Unsupervised Temporal Action Localization via Self-paced Incremental
Learning [57.55765505856969]
本稿では,クラスタリングとローカライズトレーニングを同時に行うための,自己ペースの漸進学習モデルを提案する。
我々は,2つの段階的なインスタンス学習戦略を設計し,ビデオ擬似ラベルの信頼性を確保する。
論文 参考訳(メタデータ) (2023-12-12T16:00:55Z) - Don't Make Your LLM an Evaluation Benchmark Cheater [142.24553056600627]
大規模言語モデル(LLM)は人工知能のフロンティアを大幅に進歩させ、モデルキャパシティを著しく向上させた。
モデル性能を評価するために, LLMの能力レベルを測定するための評価ベンチマークを構築するのが典型的な方法である。
評価ベンチマークを用いて不適切なリスクと影響について検討し,評価結果を誤って解釈する。
論文 参考訳(メタデータ) (2023-11-03T14:59:54Z) - Re-Benchmarking Pool-Based Active Learning for Binary Classification [27.034593234956713]
アクティブラーニング(英: Active Learning)は、ラベル付きデータを取得する際の機械学習モデルの性能を大幅に向上させるパラダイムである。
アクティブな学習戦略を評価するためのベンチマークはいくつか存在するが、それらの発見はいくつかの誤解を示している。
この不一致は、コミュニティのために透明で再現可能なベンチマークを開発する動機となります。
論文 参考訳(メタデータ) (2023-06-15T08:47:50Z) - A Large-scale Study of Spatiotemporal Representation Learning with a New
Benchmark on Action Recognition [14.226201098201244]
BEARは5つのカテゴリ(異常、ジェスチャー、毎日、スポーツ、教育)に分類される18のビデオデータセットのコレクションである。
教師付き学習と自己指導型学習の両方によって事前訓練された6つの共通時間モデルについて、徹底的に評価した。
我々の観察では、現在の最先端技術は、実世界のアプリケーションに近いデータセット上でのハイパフォーマンスを確実に保証できないことを示唆している。
論文 参考訳(メタデータ) (2023-03-23T17:58:05Z) - From MNIST to ImageNet and Back: Benchmarking Continual Curriculum
Learning [9.104068727716294]
継続学習(CL)は、機械学習研究で最も有望なトレンドの1つである。
6つの画像データセットから複数の異種タスクを含む2つの新しいCLベンチマークを導入する。
さらに、タスクが複雑化と減少の順序で表されるように、ベンチマークを構造化します。
論文 参考訳(メタデータ) (2023-03-16T18:11:19Z) - Real-Time Evaluation in Online Continual Learning: A New Hope [104.53052316526546]
計算コストに関して,現在の継続学習(CL)手法を評価した。
簡単なベースラインは、この評価の下で最先端のCL法より優れている。
これは、既存のCL文献の大部分は、実用的でない特定の種類のストリームに適合していることを驚くほど示唆している。
論文 参考訳(メタデータ) (2023-02-02T12:21:10Z) - CLAD: A realistic Continual Learning benchmark for Autonomous Driving [33.95470797472666]
本稿では、自動運転のための新しい連続学習ベンチマークを動機づける設計とアイデアについて述べる。
ベンチマークでは、先日リリースされた大規模なデータセットであるSODA10Mが使用されている。
CLAD-Cは、クラスとドメインの漸進的な課題を生じさせる時系列データストリームを通じて実現されたオンライン分類ベンチマークである。
ICCV 2021のCLAD-Challengeワークショップにおいて,トップ3の参加者が使用するテクニックと手法を調査し,ベンチマークがもたらす課題と課題について検討した。
論文 参考訳(メタデータ) (2022-10-07T12:08:25Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - The CLEAR Benchmark: Continual LEArning on Real-World Imagery [77.98377088698984]
連続学習(CL)は、生涯AIにとって重要な課題であると考えられている。
本稿では,視覚概念の自然な時間進化を伴う最初の連続画像分類ベンチマークであるCLEARを紹介する。
単純な教師なし事前学習のステップで、最先端のCLアルゴリズムがすでに強化されていることが分かりました。
論文 参考訳(メタデータ) (2022-01-17T09:09:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。