論文の概要: BU-CVKit: Extendable Computer Vision Framework for Species Independent
Tracking and Analysis
- arxiv url: http://arxiv.org/abs/2306.04736v1
- Date: Wed, 7 Jun 2023 19:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 17:50:30.394725
- Title: BU-CVKit: Extendable Computer Vision Framework for Species Independent
Tracking and Analysis
- Title(参考訳): BU-CVKit:独立性追跡・分析のための拡張可能なコンピュータビジョンフレームワーク
- Authors: Mahir Patel, Lucas Carstensen, Yiwen Gu, Michael E. Hasselmo, Margrit
Betke
- Abstract要約: 本稿では,チェーンプロセッサを用いた研究パイプライン作成を可能にするコンピュータビジョンフレームワークを提案する。
コミュニティはフレームワークの作業のプラグインを作成できるため、再利用性、アクセシビリティ、作業の公開性が向上する。
フレームワーク用に作成されたサンプルプラグインを通じて生成された行動パイプラインの例を示す。
- 参考スコア(独自算出の注目度): 7.036239435275302
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A major bottleneck of interdisciplinary computer vision (CV) research is the
lack of a framework that eases the reuse and abstraction of state-of-the-art CV
models by CV and non-CV researchers alike. We present here BU-CVKit, a computer
vision framework that allows the creation of research pipelines with chainable
Processors. The community can create plugins of their work for the framework,
hence improving the re-usability, accessibility, and exposure of their work
with minimal overhead. Furthermore, we provide MuSeqPose Kit, a user interface
for the pose estimation package of BU-CVKit, which automatically scans for
installed plugins and programmatically generates an interface for them based on
the metadata provided by the user. It also provides software support for
standard pose estimation features such as annotations, 3D reconstruction,
reprojection, and camera calibration. Finally, we show examples of behavioral
neuroscience pipelines created through the sample plugins created for our
framework.
- Abstract(参考訳): 学際的コンピュータビジョン(CV)研究の大きなボトルネックは、CVや非CV研究者による最先端のCVモデルの再利用と抽象化を容易にするフレームワークの欠如である。
ここでは,チェーン可能なプロセッサを用いた研究パイプライン作成を可能にするコンピュータビジョンフレームワークであるbu-cvkitを紹介する。
コミュニティはフレームワークの作業のプラグインを作成できるため、最小限のオーバーヘッドで作業の再使用性、アクセシビリティ、公開性が向上する。
さらに、bu-cvkitのポーズ推定パッケージ用のユーザインタフェースであるmuseqpose kitを提供し、インストールされたプラグインを自動的にスキャンし、ユーザが提供するメタデータに基づいてそれらのインターフェースをプログラム的に生成する。
また、アノテーション、3D再構成、再プロジェクション、カメラキャリブレーションなどの標準ポーズ推定機能に対するソフトウェアサポートも提供する。
最後に、我々のフレームワーク用に作成されたサンプルプラグインを通して生成された行動神経科学パイプラインの例を示す。
関連論文リスト
- Lightweight Syntactic API Usage Analysis with UCov [0.0]
本稿では,ライブラリメンテナのAPIによるインタラクション理解を支援するための,新しい概念フレームワークを提案する。
これらのカスタマイズ可能なモデルにより、ライブラリメンテナはリリース前に設計を改善することができ、進化中の摩擦を減らすことができる。
我々は,これらのモデルを新しいツールUCovに実装し,多様なインタラクションスタイルを示す3つのライブラリ上でその能力を実証する。
論文 参考訳(メタデータ) (2024-02-19T10:33:41Z) - PIN: Positional Insert Unlocks Object Localisation Abilities in VLMs [55.8550939439138]
VLM(Vision-Language Models)は、大きな言語モデルと視覚システムを統合することで、大きな可能性を秘めている。
これらのモデルは、主にキャプションを含むマルチモーダルデータに対するトレーニングのため、オブジェクトローカライゼーションの基本的なコンピュータビジョンタスクにおいて課題に直面している。
本稿では,空間的プロンプトであるPIN(Input-Agnostic Positional Insert)を導入する。
我々のPINモジュールは、新しい出力ヘッドを必要とせずに、合成データに対する単純な次トーケン予測タスクで訓練されている。
論文 参考訳(メタデータ) (2024-02-13T18:39:18Z) - ESPnet-SPK: full pipeline speaker embedding toolkit with reproducible
recipes, self-supervised front-ends, and off-the-shelf models [53.56760820639671]
ESPnet-SPKは、話者埋め込み抽出器を訓練するためのツールキットである。
我々は、x-vectorから最近のSKA-TDNNまで、いくつかのモデルを提供している。
開発モデルと他のドメインとの橋渡しも目指しています。
論文 参考訳(メタデータ) (2024-01-30T18:18:27Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [60.9306410617744]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - Technical note: ShinyAnimalCV: open-source cloud-based web application
for object detection, segmentation, and three-dimensional visualization of
animals using computer vision [3.104479331955694]
本研究の目的は,オープンソースのクラウドベースのWebアプリケーションであるShinyAnimalCVを開発することである。
本アプリケーションは,物体のセグメンテーション,検出,3次元表面の可視化,2次元および3次元形態特徴の抽出など,CVタスクを実行するユーザフレンドリーなインタフェースを提供する。
ShinyAnimalCVのソースコードはGitHubで公開されており、カスタムデータを使用してCVモデルをトレーニングし、ユーザがアプリケーションの機能を完全に活用できるようにローカルにデプロイするための詳細なドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-07-26T20:25:29Z) - What Can Human Sketches Do for Object Detection? [127.67444974452411]
スケッチは非常に表現力が高く、本質的に主観的かつきめ細かい視覚的手がかりを捉えている。
スケッチ可能なオブジェクト検出フレームワークは、 textityou sketch -- textit that zebra' に基づいて検出する。
スケッチベース画像検索(SBIR)のために構築された基礎モデル(例えばCLIP)と既存のスケッチモデルとの直感的な相乗効果を示す。
特に、まず、エンコーダモデルの両方のスケッチブランチで独立に実行し、高度に一般化可能なスケッチとフォトエンコーダを構築する。
論文 参考訳(メタデータ) (2023-03-27T12:33:23Z) - Interactive Visualization of Protein RINs using NetworKit in the Cloud [57.780880387925954]
本稿では,タンパク質動態,特に残基相互作用ネットワーク(RIN)の例について考察する。
NetworKitを使ってクラウドベースの環境を構築しています。
このアプローチの汎用性を実証するために、私たちは、RIN視覚化のためのカスタムJupyterベースのウィジェットを構築するためにそれを使用します。
論文 参考訳(メタデータ) (2022-03-02T17:41:45Z) - A Simple Single-Scale Vision Transformer for Object Localization and
Instance Segmentation [79.265315267391]
We propose a simple and compact ViT architecture called Universal Vision Transformer (UViT)。
UViTは、オブジェクト検出とインスタンスセグメンテーションタスクで強力なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-12-17T20:11:56Z) - OdoViz: A 3D Odometry Visualization and Processing Tool [0.0]
OdoVizは、自動運転車のデータセットの3D視覚化と処理のための、リアクティブなWebベースのツールである。
このシステムには、GPS/INSのポーズ、ポイントクラウド、カメライメージのロード、検査、可視化、処理の機能を提供する。
論文 参考訳(メタデータ) (2021-07-15T18:37:19Z) - A survey on Kornia: an Open Source Differentiable Computer Vision
Library for PyTorch [0.0]
Korniaは、汎用的なコンピュータビジョン問題を解決することを目的とした、さまざまなルーチンとモジュールのセットに基づいて構築された、オープンソースのコンピュータビジョンライブラリである。
パッケージはPyTorchをメインバックエンドとして使用しており、効率だけでなく、逆自動微分エンジンを利用して複雑な関数の勾配を定義し、計算する。
論文 参考訳(メタデータ) (2020-09-21T08:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。