論文の概要: Revisiting Wright: Improving supervised classification of rat ultrasonic
vocalisations using synthetic training data
- arxiv url: http://arxiv.org/abs/2303.03183v1
- Date: Fri, 3 Mar 2023 03:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:47:34.256308
- Title: Revisiting Wright: Improving supervised classification of rat ultrasonic
vocalisations using synthetic training data
- Title(参考訳): Revisiting Wright: 人工訓練データを用いたラット超音波発声の教師付き分類の改善
- Authors: K. Jack Scott, Lucinda J. Speers, David K. Bilkey
- Abstract要約: 我々は、マウスのUSVを分析するために作られた畳み込みニューラルネットワーク(CNN)であるVocalMatをラットで使用するために適応する。
我々はVocalMatをベンチマークCNNであるDeepSqueakと比較した。
その結果,VocalMatはコール識別と分類の両面でベンチマークソフトウェアよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rodents communicate through ultrasonic vocalizations (USVs). These calls are
of interest because they provide insight into the development and function of
vocal communication, and may prove to be useful as a biomarker for dysfunction
in models of neurodevelopmental disorders. Rodent USVs can be categorised into
different components and while manual classification is time consuming,
advances in neural computing have allowed for fast and accurate identification
and classification. Here, we adapt a convolutional neural network (CNN),
VocalMat, created for analysing mice USVs, for use with rats. We codify a
modified schema, adapted from that previously proposed by Wright et al. (2010),
for classification, and compare the performance of our adaptation of VocalMat
with a benchmark CNN, DeepSqueak. Additionally, we test the effect of inserting
synthetic USVs into the training data of our classification network in order to
reduce the workload involved in generating a training set. Our results show
that the modified VocalMat outperformed the benchmark software on measures of
both call identification, and classification. Additionally, we found that the
augmentation of training data with synthetic images resulted in a marked
improvement in the accuracy of VocalMat when it was subsequently used to
analyse novel data. The resulting accuracy on the modified Wright
categorizations was sufficiently high to allow for the application of this
software in rat USV classification in laboratory conditions. Our findings also
show that inserting synthetic USV calls into the training set leads to
improvements in accuracy with little extra time-cost.
- Abstract(参考訳): ダクトは超音波発声(USV)を介して通信する。
これらの呼び出しは声道コミュニケーションの発達と機能に関する洞察を与え、神経発達障害のモデルにおける機能障害のバイオマーカーとして有用であることが証明される。
rodent usvは異なるコンポーネントに分類でき、手動の分類は時間がかかるが、ニューラルネットワークの進歩により、高速で正確な識別と分類が可能になった。
ここでは,マウスusvsの解析用に作製したconvolutional neural network (cnn) と vocalmat をラットに適用した。
我々はwright et al. (2010) が以前に提案したスキーマから派生した修正スキーマを分類のために体系化し,vocalmat の適応性能をベンチマーク cnn である deepsqueak と比較した。
さらに,本分類ネットワークのトレーニングデータに合成usvを挿入することにより,トレーニングセット作成に伴う作業負荷を低減する効果を検証した。
提案手法は,コール識別と分類の尺度において,修正されたボーカルマットがベンチマークソフトウェアを上回ったことを示す。
また,合成画像を用いた訓練データの強化により,新たなデータの解析に用いた場合,声質の精度が著しく向上することが判明した。
修正されたライト分類の精度は、実験条件におけるラットのusv分類におけるこのソフトウェアの適用を可能にするのに十分なものであった。
また, トレーニングセットに合成USVコールを挿入すると, 追加の時間コストを伴わず精度が向上することを示した。
関連論文リスト
- DeepSpeech models show Human-like Performance and Processing of Cochlear Implant Inputs [12.234206036041218]
我々は、ディープニューラルネットワーク(DNN)のDeepSpeech2をパラダイムとして、自然入力と人工内耳ベースの入力が時間の経過とともにどのように処理されるかを調べる。
音声文から自然言語および人工内耳のような入力を生成し、モデル性能と人的性能の類似性を検証した。
各レイヤにおける時間的ダイナミクスは、コンテキストや入力タイプの影響を受けます。
論文 参考訳(メタデータ) (2024-07-30T04:32:27Z) - Investigating the Robustness of Vision Transformers against Label Noise
in Medical Image Classification [8.578500152567164]
医用画像分類データセットにおけるラベルノイズは、教師付き深層学習法の訓練を邪魔する。
プレトレーニングは、教師あり訓練におけるラベルノイズに対するViTの堅牢性向上に不可欠であることを示す。
論文 参考訳(メタデータ) (2024-02-26T16:53:23Z) - Self-Supervised Pretraining Improves Performance and Inference
Efficiency in Multiple Lung Ultrasound Interpretation Tasks [65.23740556896654]
肺超音波検査における複数分類課題に適用可能なニューラルネットワーク特徴抽出器を,自己指導型プレトレーニングで作成できるかどうかを検討した。
3つの肺超音波のタスクを微調整すると、事前訓練されたモデルにより、各テストセットの受信操作曲線(AUC)における平均クロスタスク面積は、それぞれ0.032と0.061に改善された。
論文 参考訳(メタデータ) (2023-09-05T21:36:42Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Deep Feature Learning for Medical Acoustics [78.56998585396421]
本研究の目的は,医療音響の課題における学習内容の比較である。
ヒトの呼吸音と心臓の鼓動を健康的または病態の影響の2つのカテゴリに分類する枠組みが実装されている。
論文 参考訳(メタデータ) (2022-08-05T10:39:37Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Deep Learning-based Cattle Activity Classification Using Joint
Time-frequency Data Representation [2.472770436480857]
本稿では,牛の行動・行動の分類と行動モデルの構築にシーケンシャルディープニューラルネットワークを用いた。
本研究の主な焦点は,センサデータの同時時間周波数領域表現の探索である。
3軸加速度計、磁力計、ジャイロスコープのセンサーから収集された300万以上のサンプルからなる実世界のデータセットに基づいています。
論文 参考訳(メタデータ) (2020-11-06T14:24:55Z) - Surgical Mask Detection with Convolutional Neural Networks and Data
Augmentations on Spectrograms [8.747840760772268]
人間の声のサンプルにおける手術用マスク検出の2値分類タスクに対するデータ拡張の効果を示す。
結果、ComParEのベースラインのほとんどがパフォーマンスに優れていたことが判明した。
論文 参考訳(メタデータ) (2020-08-11T09:02:47Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - CURE Dataset: Ladder Networks for Audio Event Classification [15.850545634216484]
約300万人が聴覚障害を抱えており、周囲で起きている出来事を認識できない。
本稿では,難聴者に対して最も関連性の高い特定の音声イベントをキュレートしたCUREデータセットを確立する。
論文 参考訳(メタデータ) (2020-01-12T09:35:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。