論文の概要: State Space Models for Bioacoustics: A comparative Evaluation with Transformers
- arxiv url: http://arxiv.org/abs/2512.03563v1
- Date: Wed, 03 Dec 2025 08:37:09 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 11:57:37.890542
- Title: State Space Models for Bioacoustics: A comparative Evaluation with Transformers
- Title(参考訳): バイオアコースティックスのための状態空間モデル:トランスフォーマーとの比較評価
- Authors: Chengyu Tang, Sanjeev Baskiyar,
- Abstract要約: まず,マンバをベースとした音声大言語モデル(LLM)を,自己教師付き学習を用いて大規模コーパスで事前学習する。
我々はBEANSベンチマークでBioMambaを微調整し評価した。
その結果,BioMamba は AVES と同等の性能を示し,消費電力は VRAM よりも著しく少ないことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this study, we evaluate the efficacy of the Mamba model in the field of bioacoustics. We first pretrain a Mamba-based audio large language model (LLM) on a large corpus of audio data using self-supervised learning. We fine-tune and evaluate BioMamba on the BEANS benchmark, a collection of diverse bioacoustic tasks including classification and detection, and compare its performance and efficiency with multiple baseline models, including AVES, a state-of-the-art Transformer-based model. The results show that BioMamba achieves comparable performance with AVES while consumption significantly less VRAM, demonstrating its potential in this domain.
- Abstract(参考訳): 本研究では,生体音響学分野におけるマンバモデルの有効性を評価する。
まず,マンバをベースとした音声大言語モデル(LLM)を,自己教師付き学習を用いて大規模コーパスで事前学習する。
我々はBEANSベンチマークでBioMambaを微調整し評価し、分類と検出を含む多様なバイオ音響タスクのコレクションを作成し、その性能と効率を、最先端のTransformerベースのモデルであるAVESを含む複数のベースラインモデルと比較した。
その結果,BioMamba は AVES と同等の性能を示したが,VRAM の消費は著しく減少し,この領域での可能性を示した。
関連論文リスト
- Foundation Models for Bioacoustics -- a Comparative Review [0.9109149174920012]
本稿では, 生体音響基礎モデルについて, モデルアーキテクチャ, 事前学習計画, 訓練パラダイムなどの設計決定を徹底的に分析して検討する。
BEANSおよびBirdSetベンチマークから,分類タスクの選択基盤モデルを評価する。
総合的な実験分析の結果,BirdSetベンチマークでは,大規模鳥の鳴き声データに基づく自己指導による学習が最高の成績を収めていることが明らかとなった。
論文 参考訳(メタデータ) (2025-08-02T09:15:16Z) - BioMamba: Leveraging Spectro-Temporal Embedding in Bidirectional Mamba for Enhanced Biosignal Classification [1.9414307529560617]
既存のバイオシグナル分類手法は、フィードフォワード層が密集した注意に基づくフレームワークに依存している。
これら3つの重要なコンポーネントを統合することで、BioMambaは既存のメソッドの制限を効果的に解決する。
大規模な実験により、BioMambaは最先端の手法を著しく上回り、分類性能が著しく向上していることが示された。
論文 参考訳(メタデータ) (2025-03-14T16:42:58Z) - ReMamba: Equip Mamba with Effective Long-Sequence Modeling [50.530839868893786]
本研究では,長い文脈の理解能力を高めるReMambaを提案する。
ReMambaは2段階のプロセスで選択的圧縮と適応のテクニックを取り入れている。
論文 参考訳(メタデータ) (2024-08-28T02:47:27Z) - Vision Mamba for Classification of Breast Ultrasound Images [9.90112908284836]
MambaベースのモデルであるVMambaとVimは、最近のビジョンエンコーダのファミリーであり、多くのコンピュータビジョンタスクで有望なパフォーマンス改善を提供する。
本稿では,乳房超音波BUSIデータセットと乳房超音波Bデータセットを用いて,マンバモデルと従来の畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を比較した。
論文 参考訳(メタデータ) (2024-07-04T00:21:47Z) - Swin-UMamba: Mamba-based UNet with ImageNet-based pretraining [85.08169822181685]
本稿では,医療画像のセグメンテーションに特化して設計された新しいマンバモデルSwin-UMambaを紹介する。
Swin-UMamba は CNN や ViT,最新の Mamba ベースのモデルと比較して,優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-05T18:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。