論文の概要: acoupi: An Open-Source Python Framework for Deploying Bioacoustic AI Models on Edge Devices
- arxiv url: http://arxiv.org/abs/2501.17841v1
- Date: Wed, 29 Jan 2025 18:44:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:52:50.386711
- Title: acoupi: An Open-Source Python Framework for Deploying Bioacoustic AI Models on Edge Devices
- Title(参考訳): acoupi: エッジデバイスにバイオ音響AIモデルをデプロイするためのオープンソースのPythonフレームワーク
- Authors: Aude Vuilliomenet, Santiago Martínez Balvanera, Oisin Mac Aodha, Kate E. Jones, Duncan Wilson,
- Abstract要約: 我々は、スマートバイオ音響デバイスの作成とデプロイを簡単にするオープンソースのPythonフレームワークであるacoupiを開発した。
acoupiは、オーディオ記録、AIベースのデータ処理、データ管理、リアルタイム無線メッセージングを統一されたフレームワークに統合する。
英国都市公園における2つのアカプピ駆動装置の1ヶ月にわたる展開において,アカプピの信頼性を検証した。
- 参考スコア(独自算出の注目度): 12.500555159166636
- License:
- Abstract: 1. Passive acoustic monitoring (PAM) coupled with artificial intelligence (AI) is becoming an essential tool for biodiversity monitoring. Traditional PAM systems require manual data offloading and impose substantial demands on storage and computing infrastructure. The combination of on-device AI-based processing and network connectivity enables local data analysis and transmission of only relevant information, greatly reducing storage needs. However, programming these devices for robust operation is challenging, requiring expertise in embedded systems and software engineering. Despite the increase in AI-based models for bioacoustics, their full potential remains unrealized without accessible tools to deploy them on custom hardware and tailor device behaviour to specific monitoring goals. 2. To address this challenge, we develop acoupi, an open-source Python framework that simplifies the creation and deployment of smart bioacoustic devices. acoupi integrates audio recording, AI-based data processing, data management, and real-time wireless messaging into a unified and configurable framework. By modularising key elements of the bioacoustic monitoring workflow, acoupi allows users to easily customise, extend, or select specific components to fit their unique monitoring needs. 3. We demonstrate the flexibility of acoupi by integrating two bioacoustic classifiers: BirdNET, for the classification of bird species, and BatDetect2, for the classification of UK bat species. We test the reliability of acoupi over a month-long deployment of two acoupi-powered devices in a UK urban park. 4. acoupi can be deployed on low-cost hardware such as the Raspberry Pi and can be customised for various applications. acoupi standardised framework and simplified tools facilitate the adoption of AI-powered PAM systems for researchers and conservationists. acoupi is on GitHub at https://github.com/acoupi/acoupi.
- Abstract(参考訳): 1. 受動音響モニタリング(PAM)と人工知能(AI)が組み合わさって生体多様性モニタリングに欠かせないツールになりつつある。
従来のPAMシステムは手動のデータオフロードを必要とし、ストレージとコンピューティングのインフラにかなりの要求を課している。
オンデバイスAIベースの処理とネットワーク接続の組み合わせにより、ローカルデータ分析と関連する情報のみの送信が可能になり、ストレージニーズを大幅に削減できる。
しかし、これらのデバイスを堅牢な操作のためにプログラミングすることは困難であり、組み込みシステムやソフトウェア工学の専門知識を必要とする。
バイオアコースティックスのためのAIベースのモデルの増加にもかかわらず、その潜在能力は、カスタムハードウェアにデプロイし、特定の監視目標に対してデバイス動作を調整するためのアクセス可能なツールなしでは実現されていない。
この課題に対処するため、我々は、スマートバイオ音響デバイスの作成とデプロイを簡単にするオープンソースのPythonフレームワークであるacoupiを開発した。
acoupiは、オーディオ記録、AIベースのデータ処理、データ管理、リアルタイム無線メッセージングを統一的で構成可能なフレームワークに統合する。
バイオ音響モニタリングワークフローの重要な要素をモジュール化することによって、Acoupiはユーザが独自のモニタリングニーズに合わせて、特定のコンポーネントを簡単にカスタマイズ、拡張、選択できる。
3) 鳥類の分類のためのBirdNETと, コウモリの分類のためのBatDetect2の2つのバイオ音響分類器を統合することで, アクーピの柔軟性を実証した。
英国都市公園における2つのアカプピ駆動装置の1ヶ月にわたる展開において,アカプピの信頼性を検証した。
acoupiはRaspberry Piのような低価格のハードウェアにデプロイでき、様々なアプリケーション用にカスタマイズできる。
acoupiの標準化されたフレームワークと単純化されたツールは、研究者や保護主義者のためのAI駆動のPAMシステムの導入を促進する。
acoupiはGitHubのhttps://github.com/acoupi/acoupi.comにある。
関連論文リスト
- SONAR: A Synthetic AI-Audio Detection Framework and Benchmark [59.09338266364506]
SONARはAI-Audio Detection FrameworkとBenchmarkの合成である。
最先端のAI合成聴覚コンテンツを識別するための総合的な評価を提供することを目的としている。
従来のモデルとファンデーションベースのディープフェイク検出システムの両方で、AIオーディオ検出を均一にベンチマークする最初のフレームワークである。
論文 参考訳(メタデータ) (2024-10-06T01:03:42Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - Model Callers for Transforming Predictive and Generative AI Applications [2.7195102129095003]
モデル呼び出し(model caller)と呼ばれる新しいソフトウェア抽象化を導入する。
モデル呼び出しは、AIとMLモデル呼び出しの仲介役として機能する。
我々は、モデル呼び出しのためのPythonライブラリのプロトタイプをリリースした。
論文 参考訳(メタデータ) (2024-04-17T12:21:06Z) - ESPnet-SPK: full pipeline speaker embedding toolkit with reproducible recipes, self-supervised front-ends, and off-the-shelf models [51.35570730554632]
ESPnet-SPKは、話者埋め込み抽出器を訓練するためのツールキットである。
我々は、x-vectorから最近のSKA-TDNNまで、いくつかのモデルを提供している。
開発モデルと他のドメインとの橋渡しも目指しています。
論文 参考訳(メタデータ) (2024-01-30T18:18:27Z) - Efficient Adaptive Human-Object Interaction Detection with
Concept-guided Memory [64.11870454160614]
概念誘導メモリ(ADA-CM)を用いた適応型HOI検出器を提案する。
ADA-CMには2つの操作モードがある。最初のモードでは、トレーニング不要のパラダイムで新しいパラメータを学習することなくチューニングできる。
提案手法は, HICO-DET と V-COCO のデータセットに対して, より少ないトレーニング時間で, 最新技術による競合的な結果を得る。
論文 参考訳(メタデータ) (2023-09-07T13:10:06Z) - ChatMOF: An Autonomous AI System for Predicting and Generating
Metal-Organic Frameworks [0.0]
ChatMOFは、金属-有機フレームワーク(MOF)を予測および生成するために開発された自律人工知能(AI)システムである。
大規模言語モデル(GPT-4とGPT-3.5-turbo)を活用することで、ChatMOFはテキスト入力から重要な詳細を抽出し、適切な応答を提供する。
論文 参考訳(メタデータ) (2023-08-01T02:08:13Z) - Fully Automated End-to-End Fake Audio Detection [57.78459588263812]
本稿では,完全自動エンドツーエンド音声検出手法を提案する。
まず、wav2vec事前学習モデルを用いて、音声の高レベル表現を得る。
ネットワーク構造には, Light-DARTS という異種アーキテクチャサーチ (DARTS) の修正版を用いる。
論文 参考訳(メタデータ) (2022-08-20T06:46:55Z) - Backbone is All Your Need: A Simplified Architecture for Visual Object
Tracking [69.08903927311283]
既存のトラッキングアプローチはカスタマイズされたサブモジュールに依存しており、アーキテクチャの選択に事前知識が必要である。
本稿では,コンバータバックボーンを用いた簡易なトラッキングアーキテクチャ(SimTrack)を提案する。
我々のSimTrackは、LaSOT/TNL2Kで2.5%/2.6%のAUCゲインでベースラインを改善し、ベルやホイッスルのない他の特殊な追跡アルゴリズムと競合する結果を得る。
論文 参考訳(メタデータ) (2022-03-10T12:20:58Z) - Towards Tailored Models on Private AIoT Devices: Federated Direct Neural
Architecture Search [22.69123714900226]
デバイス間の非IDデータからハードウェアフレンドリなNASを実現するためのFDNAS(Federated Direct Neural Architecture Search)フレームワークを提案する。
非IIDデータセットの実験では、提案したソリューションによって達成された最先端の精度効率トレードオフが示されている。
論文 参考訳(メタデータ) (2022-02-23T13:10:01Z) - DeepSpectrumLite: A Power-Efficient Transfer Learning Framework for
Embedded Speech and Audio Processing from Decentralised Data [0.0]
DeepSpectrumLiteは、オンデバイス音声と音声認識のためのオープンソースの軽量転送学習フレームワークです。
このフレームワークは、Mel-spectrogramプロットを生の音声信号からオンザフライで作成し、拡張する。
DenseNet121モデルがコンシューマグレードのMotorola moto e7+スマートフォンで使用される場合、パイプライン全体を242.0ミリ秒の推論ラグでリアルタイムに実行できる。
論文 参考訳(メタデータ) (2021-04-23T14:32:33Z) - PHOTONAI -- A Python API for Rapid Machine Learning Model Development [2.414341608751139]
PHOTONAIは、機械学習モデル開発の簡素化と高速化を目的とした、ハイレベルなPython APIである。
これは統一フレームワークとして機能し、ユーザーは異なるツールボックスからのアルゴリズムをカスタムのアルゴリズムシーケンスに簡単にアクセスし、組み合わせることができる。
論文 参考訳(メタデータ) (2020-02-13T10:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。