論文の概要: Njobvu-AI: An open-source tool for collaborative image labeling and
implementation of computer vision models
- arxiv url: http://arxiv.org/abs/2308.16435v1
- Date: Thu, 31 Aug 2023 03:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-01 17:49:43.621910
- Title: Njobvu-AI: An open-source tool for collaborative image labeling and
implementation of computer vision models
- Title(参考訳): Njobvu-AI: 協調画像ラベリングとコンピュータビジョンモデルの実装のためのオープンソースツール
- Authors: Jonathan S. Koning, Ashwin Subramanian, Mazen Alotaibi, Cara L. Appel,
Christopher M. Sullivan, Thon Chao, Lisa Truong, Robyn L. Tanguay, Pankaj
Jaiswal, Taal Levi, Damon B. Lesmeister
- Abstract要約: Njobvu-AIは、Node.jsを使ってデスクトップとサーバの両方のハードウェアで実行できる無料のオープンソースツールである。
ユーザは、データのラベル付け、コラボレーションとレビューのためのプロジェクトの統合、カスタムアルゴリズムのトレーニング、新しいコンピュータビジョンモデルの実装が可能になる。
- 参考スコア(独自算出の注目度): 0.5617572524191751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Practitioners interested in using computer vision models lack user-friendly
and open-source software that combines features to label training data, allow
multiple users, train new algorithms, review output, and implement new models.
Labeling training data, such as images, is a key step to developing accurate
object detection algorithms using computer vision. This step is often not
compatible with many cloud-based services for marking or labeling image and
video data due to limited internet bandwidth in many regions of the world.
Desktop tools are useful for groups working in remote locations, but users
often do not have the capability to combine projects developed locally by
multiple collaborators. Furthermore, many tools offer features for labeling
data or using pre-trained models for classification, but few allow researchers
to combine these steps to create and apply custom models. Free, open-source,
and user-friendly software that offers a full suite of features (e.g., ability
to work locally and online, and train custom models) is desirable to field
researchers and conservationists that may have limited coding skills. We
developed Njobvu-AI, a free, open-source tool that can be run on both desktop
and server hardware using Node.js, allowing users to label data, combine
projects for collaboration and review, train custom algorithms, and implement
new computer vision models. The name Njobvu-AI (pronounced N-joh-voo AI),
incorporating the Chichewa word for elephant, is inspired by a wildlife
monitoring program in Malawi that was a primary impetus for the development of
this tool and references similarities between the powerful memory of elephants
and properties of computer vision models.
- Abstract(参考訳): コンピュータビジョンモデルの使用に関心を持つ実践者は、ユーザフレンドリでオープンソースのソフトウェアを欠き、複数のユーザに対してトレーニングデータのラベル付け、新しいアルゴリズムのトレーニング、アウトプットのレビュー、新しいモデルの実装を行うことができる。
画像などのトレーニングデータのラベル付けは、コンピュータビジョンを用いた正確な物体検出アルゴリズムを開発するための重要なステップである。
このステップは、世界中の多くの地域でインターネット帯域が限られているため、画像やビデオデータのマークやラベル付けのための多くのクラウドベースのサービスと互換性がないことが多い。
デスクトップツールは遠隔地で働くグループにとって有用なツールだが、複数の共同作業者がローカルに開発したプロジェクトを組み合わせる能力がないことが多い。
さらに、多くのツールは、データのラベル付けや分類に事前訓練されたモデルを使用する機能を提供している。
フリーで、オープンソースで、ユーザフレンドリーなソフトウェアは、コーディングスキルが限られているフィールド研究者や保全主義者にとって、完全な機能(例えば、ローカル、オンライン、カスタムモデルのトレーニングなど)を提供するのが望ましい。
私たちはNjobvu-AIを開発した。Njobvu-AIは、Node.jsを使ってデスクトップとサーバの両方のハードウェアで実行できる無料のオープンソースツールで、ユーザはデータをラベル付けしたり、コラボレーションとレビューのためのプロジェクトを組み合わせたり、カスタムアルゴリズムをトレーニングしたり、新しいコンピュータビジョンモデルを実装したりすることができる。
Njobvu-AI(N-joh-voo AI)という名前は、象の強力な記憶とコンピュータビジョンモデルの性質の類似性を参照しながら、このツールの開発の原動力となったマラウイの野生生物監視プログラムにヒントを得たものである。
関連論文リスト
- SeeBel: Seeing is Believing [0.9790236766474201]
本稿では,全画像のセグメンテーションにおけるデータセット統計とAI性能を比較するための3つの可視化手法を提案する。
我々のプロジェクトは、画像の注意重みを可視化することで、セグメンテーションのための訓練されたAIモデルの解釈可能性をさらに高めようとしている。
我々は,コンピュータビジョンとAI領域における可視化ツールの有効性を検討するために,実際のユーザを対象に調査を行うことを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:11:00Z) - SoTaNa: The Open-Source Software Development Assistant [81.86136560157266]
SoTaNaはオープンソースのソフトウェア開発アシスタントだ。
ソフトウェア工学の分野のための高品質な命令ベースのデータを生成する。
オープンソースの基盤モデルであるLLaMAを強化するためにパラメータ効率のよい微調整アプローチを採用している。
論文 参考訳(メタデータ) (2023-08-25T14:56:21Z) - Technical note: ShinyAnimalCV: open-source cloud-based web application
for object detection, segmentation, and three-dimensional visualization of
animals using computer vision [3.104479331955694]
本研究の目的は,オープンソースのクラウドベースのWebアプリケーションであるShinyAnimalCVを開発することである。
本アプリケーションは,物体のセグメンテーション,検出,3次元表面の可視化,2次元および3次元形態特徴の抽出など,CVタスクを実行するユーザフレンドリーなインタフェースを提供する。
ShinyAnimalCVのソースコードはGitHubで公開されており、カスタムデータを使用してCVモデルをトレーニングし、ユーザがアプリケーションの機能を完全に活用できるようにローカルにデプロイするための詳細なドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-07-26T20:25:29Z) - MaMMUT: A Simple Architecture for Joint Learning for MultiModal Tasks [59.09343552273045]
本稿では,これらの異なる視覚言語タスクの協調学習に驚くほど有効であるマルチモーダルタスクのためのデコーダのみのモデルを提案する。
これらの多様な目的の合同学習は単純で効果的であり、これらのタスク間でのモデルの重量共有を最大化することを示した。
我々のモデルは,画像テキストとテキスト画像検索,ビデオ質問応答,オープン語彙検出タスクにおける技術の現状を達成し,より大きく,より広範囲に訓練された基礎モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-29T16:42:30Z) - Robustar: Interactive Toolbox Supporting Precise Data Annotation for
Robust Vision Learning [53.900911121695536]
ソフトウェアRobustarの初期リリースを紹介します。
それは、データ駆動の観点から視覚分類機械学習モデルの堅牢性を改善することを目的としている。
論文 参考訳(メタデータ) (2022-07-18T21:12:28Z) - MONAI Label: A framework for AI-assisted Interactive Labeling of 3D
Medical Images [49.664220687980006]
注釈付きデータセットの欠如は、タスク固有の教師付き機械学習モデルをトレーニングする上で、大きなボトルネックとなる。
本稿では,人工知能(AI)モデルに基づくアプリケーション開発を支援する,フリーかつオープンソースなフレームワークであるmonAI Labelを紹介する。
論文 参考訳(メタデータ) (2022-03-23T12:33:11Z) - Multi-Task Self-Training for Learning General Representations [97.01728635294879]
マルチタスク・セルフトレーニング(MuST)は、独立した専門教師モデルにおける知識を活用して、一人の一般学生モデルを訓練する。
MuSTはラベルなしまたは部分的にラベル付けされたデータセットでスケーラブルで、大規模データセットのトレーニングにおいて、特別な教師付きモデルとセルフ教師付きモデルの両方を上回っている。
論文 参考訳(メタデータ) (2021-08-25T17:20:50Z) - A Pipeline for Vision-Based On-Orbit Proximity Operations Using Deep
Learning and Synthetic Imagery [0.0]
現在、2つの重要な課題が、ビジョンベースの軌道近傍操作にディープラーニングを使用する際の大きな障壁となっている。
ラベル付きトレーニングデータの不足(ターゲット宇宙船のイメージ)は、堅牢なディープラーニングモデルの作成を妨げる。
本稿では、オンビットビジュアルナビゲーションアプリケーション用に特別に開発されたオープンソースのディープラーニングパイプラインについて述べる。
論文 参考訳(メタデータ) (2021-01-14T15:17:54Z) - Advancing Visual Specification of Code Requirements for Graphs [0.0]
本稿では,機械学習を用いた有意義なデータの可視化に焦点をあてる。
我々は、人文科学研究者が視覚化のプログラム方法を学ぶための障壁を低くするために、ユーザが視覚的にコード要件を指定できるようにします。
ニューラルネットワークと光学文字認識を組み合わせたハイブリッドモデルを用いて、コードを生成して視覚化する。
論文 参考訳(メタデータ) (2020-07-29T17:01:53Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z) - PHOTONAI -- A Python API for Rapid Machine Learning Model Development [2.414341608751139]
PHOTONAIは、機械学習モデル開発の簡素化と高速化を目的とした、ハイレベルなPython APIである。
これは統一フレームワークとして機能し、ユーザーは異なるツールボックスからのアルゴリズムをカスタムのアルゴリズムシーケンスに簡単にアクセスし、組み合わせることができる。
論文 参考訳(メタデータ) (2020-02-13T10:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。