論文の概要: Test-Time Training for Depression Detection
- arxiv url: http://arxiv.org/abs/2404.05071v1
- Date: Sun, 7 Apr 2024 20:50:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 16:02:57.627957
- Title: Test-Time Training for Depression Detection
- Title(参考訳): 抑うつ検出のためのテストタイムトレーニング
- Authors: Sri Harsha Dumpala, Chandramouli Shama Sastry, Rudolf Uher, Sageev Oore,
- Abstract要約: 本研究では,うつ病検出のためのモデルの堅牢性向上のためのテストタイムトレーニングの適用性について分析する。
また, (a) 背景雑音, (b) 性別バイアス, (c) データの収集, キュレーションの手順により, 様々な分散シフトの下で, TTT はモデルのロバスト性を大幅に改善できることがわかった。
- 参考スコア(独自算出の注目度): 9.106996466505642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous works on depression detection use datasets collected in similar environments to train and test the models. In practice, however, the train and test distributions cannot be guaranteed to be identical. Distribution shifts can be introduced due to variations such as recording environment (e.g., background noise) and demographics (e.g., gender, age, etc). Such distributional shifts can surprisingly lead to severe performance degradation of the depression detection models. In this paper, we analyze the application of test-time training (TTT) to improve robustness of models trained for depression detection. When compared to regular testing of the models, we find TTT can significantly improve the robustness of the model under a variety of distributional shifts introduced due to: (a) background-noise, (b) gender-bias, and (c) data collection and curation procedure (i.e., train and test samples are from separate datasets).
- Abstract(参考訳): うつ病検出に関するこれまでの研究では、同様の環境で収集されたデータセットを使用してモデルをトレーニングし、テストしていた。
しかし、実際には、列車とテストの分布が同一であることを保証することはできない。
分布シフトは、記録環境(例えば、バックグラウンドノイズ)や人口動態(例えば、性別、年齢など)などによってもたらされる。
このような分布シフトは、うつ病検出モデルの性能を著しく低下させる可能性がある。
本稿では,うつ病検出のためのモデルのロバスト性を向上させるために,TTT(Test-time Training)の適用について分析する。
モデルの定期的なテストと比較すると、TTTは、様々な分散シフトによってモデルのロバスト性を大幅に向上させることができる。
(a)背景雑音
b)ジェンダーバイアス,および
(c)データ収集とキュレーション手順(例:トレーニングとテストのサンプルは別々のデータセットから作成される)。
関連論文リスト
- DOTA: Distributional Test-Time Adaptation of Vision-Language Models [52.98590762456236]
トレーニングフリーテスト時動的アダプタ(TDA)は、この問題に対処するための有望なアプローチである。
単体テスト時間適応法(Dota)の簡易かつ効果的な方法を提案する。
Dotaは継続的にテストサンプルの分布を推定し、モデルがデプロイメント環境に継続的に適応できるようにします。
論文 参考訳(メタデータ) (2024-09-28T15:03:28Z) - Temporal Test-Time Adaptation with State-Space Models [4.248760709042802]
テストサンプルにモデルを適用することは、パフォーマンスの低下を軽減するのに役立ちます。
ほとんどの試験時間適応法は、合成汚職シフトに重点を置いている。
本稿では,時相分布シフトに対応する確率的状態空間モデルSTADを提案する。
論文 参考訳(メタデータ) (2024-07-17T11:18:49Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Test-Time Adaptation with Perturbation Consistency Learning [32.58879780726279]
そこで本研究では, 分布変化のあるサンプルに対して, 安定な予測を行うための簡易なテスト時間適応手法を提案する。
提案手法は,強力なPLMバックボーンよりも推論時間が少なく,高い,あるいは同等の性能を実現することができる。
論文 参考訳(メタデータ) (2023-04-25T12:29:22Z) - A Comprehensive Survey on Test-Time Adaptation under Distribution Shifts [143.14128737978342]
新たなパラダイムであるテスト時適応は、事前トレーニングされたモデルをテスト中にラベルのないデータに適用し、予測を行う可能性がある。
このパラダイムの最近の進歩は、推論に先立って自己適応モデルのトレーニングにラベルのないデータを活用するという大きな利点を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-03-27T16:32:21Z) - TeST: Test-time Self-Training under Distribution Shift [99.68465267994783]
Test-Time Self-Training (TeST)は、あるソースデータとテスト時の新しいデータ分散に基づいてトレーニングされたモデルを入力する技術である。
また,TeSTを用いたモデルでは,ベースラインテスト時間適応アルゴリズムよりも大幅に改善されていることがわかった。
論文 参考訳(メタデータ) (2022-09-23T07:47:33Z) - TTAPS: Test-Time Adaption by Aligning Prototypes using Self-Supervision [70.05605071885914]
本研究では,単体テストサンプルに適用可能な自己教師付きトレーニングアルゴリズムSwaVの新たな改良を提案する。
ベンチマークデータセットCIFAR10-Cにおいて,本手法の有効性を示す。
論文 参考訳(メタデータ) (2022-05-18T05:43:06Z) - Efficient Test-Time Model Adaptation without Forgetting [60.36499845014649]
テストタイム適応は、トレーニングとテストデータの間の潜在的な分散シフトに取り組むことを目指している。
信頼性および非冗長なサンプルを同定するためのアクティブなサンプル選択基準を提案する。
また、重要なモデルパラメータを劇的な変化から制約するFisher regularizerを導入します。
論文 参考訳(メタデータ) (2022-04-06T06:39:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。