論文の概要: A Framework based on Deep Neural Networks to Extract Anatomy of
Mosquitoes from Images
- arxiv url: http://arxiv.org/abs/2007.11052v2
- Date: Wed, 29 Jul 2020 14:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:14:42.551462
- Title: A Framework based on Deep Neural Networks to Extract Anatomy of
Mosquitoes from Images
- Title(参考訳): 画像から蚊の解剖を抽出するための深層ニューラルネットワークに基づく枠組み
- Authors: Mona Minakshi, Pratool Bharti, Tanvir Bhuiyan, Sherzod Kariev, Sriram
Chellappan
- Abstract要約: 本研究では,蚊の解剖学的成分を自動的に検出し,別々に抽出するMask Region-based Convolutional Neural Network (Mask R-CNN) に基づくフレームワークを設計する。
トレーニングデータセットは、フロリダで捕獲された9種の蚊の、1500個のスマートフォン画像で構成されました。
- 参考スコア(独自算出の注目度): 3.1995065164631185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design a framework based on Mask Region-based Convolutional Neural Network
(Mask R-CNN) to automatically detect and separately extract anatomical
components of mosquitoes - thorax, wings, abdomen and legs from images. Our
training dataset consisted of 1500 smartphone images of nine mosquito species
trapped in Florida. In the proposed technique, the first step is to detect
anatomical components within a mosquito image. Then, we localize and classify
the extracted anatomical components, while simultaneously adding a branch in
the neural network architecture to segment pixels containing only the
anatomical components. Evaluation results are favorable. To evaluate
generality, we test our architecture trained only with mosquito images on
bumblebee images. We again reveal favorable results, particularly in extracting
wings. Our techniques in this paper have practical applications in public
health, taxonomy and citizen-science efforts.
- Abstract(参考訳): マスク領域に基づく畳み込みニューラルネットワーク(mask r-cnn)に基づいて,蚊の解剖学的成分(胸部,翼,腹部,脚)を画像から自動的に検出・分離する枠組みを設計した。
訓練データセットは、フロリダで捕獲された9種の蚊のスマートフォン画像1500枚で構成されていた。
提案手法では,まず蚊の画像中の解剖学的成分を検出する。
次に,抽出した解剖学的成分の局所化と分類を行い,同時にニューラルネットワークアーキテクチャの分岐を加えて,解剖学的成分のみを含む画素を分割する。
評価結果は良好である。
一般性を評価するため,蚊の画像のみを用いて訓練したBumblebee画像のアーキテクチャを検証した。
また,特に羽の抽出において良好な結果が得られた。
本稿では, 公衆衛生, 分類学, 市民科学における実践的手法について述べる。
関連論文リスト
- Learning Multimodal Volumetric Features for Large-Scale Neuron Tracing [72.45257414889478]
オーバーセグメントニューロン間の接続を予測し,人間の作業量を削減することを目的としている。
最初はFlyTracingという名前のデータセットを構築しました。
本稿では,高密度なボリュームEM画像の埋め込みを生成するための,新しい接続性を考慮したコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-05T19:45:12Z) - Exploiting Causality Signals in Medical Images: A Pilot Study with
Empirical Results [1.2400966570867322]
本稿では,ニューラルネットワークによる分類目的の画像から弱い因果信号を発見し,利用するための新しい手法を提案する。
このようにして、画像の1つの部分における特徴の存在が、画像の別の部分における他の特徴の出現にどのように影響するかをモデル化する。
提案手法は,畳み込みニューラルネットワークのバックボーンと因果係数抽出モジュールから構成される。
論文 参考訳(メタデータ) (2023-09-19T08:00:26Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Saliency map using features derived from spiking neural networks of
primate visual cortex [0.0]
生体視覚システムにインスパイアされた,デジタル画像の鮮度マップ作成のためのフレームワークを提案する。
これらの領域間の接続性をモデル化するために、スパイクニューラルネットワーク(SNN)シミュレータであるCARLsimライブラリを使用する。
CARLsimが生成したスパイクは抽出された特徴として機能し、私たちの唾液検出アルゴリズムに入力します。
論文 参考訳(メタデータ) (2022-05-02T18:52:39Z) - Development of an algorithm for medical image segmentation of bone
tissue in interaction with metallic implants [58.720142291102135]
本研究では,金属インプラントとの接触部における骨成長の計算アルゴリズムを開発した。
骨とインプラント組織はトレーニングデータセットに手動でセグメンテーションされた。
ネットワーク精度の面では、モデルは約98%に達した。
論文 参考訳(メタデータ) (2022-04-22T08:17:20Z) - Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis [3.3382651833270587]
我々は、画像特徴符号化とグラフ畳み込みニューラルネットワーク(GCNN)の標準畳み込みを利用して、解剖学的構造の可塑性表現を復号するエンコーダデコーダニューラルアーキテクチャであるHybridGNetを紹介する。
新たなイメージ・ツー・グラフ・スキップ接続層により、標準的な畳み込みブロックからGCNNブロックへローカライズされた機能が流れ、セグメンテーションの精度が向上することを示す。
論文 参考訳(メタデータ) (2022-03-21T13:37:23Z) - A deep convolutional neural network for classification of Aedes
albopictus mosquitoes [1.6758573326215689]
本稿では2つのDeep Convolutional Neural Networksを,分類タスクの自動化のための比較研究に適用する。
移動学習の原理を用いて、Mosquito Alertプロジェクトが提供するデータに基づいて、2つの最先端アーキテクチャを訓練する。
さらに,Grad-CAMアルゴリズムに基づく説明可能なモデルを適用し,分類画像の最も識別性の高い領域を可視化した。
論文 参考訳(メタデータ) (2021-10-29T17:58:32Z) - Convolutional Neural Networks from Image Markers [62.997667081978825]
特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
論文 参考訳(メタデータ) (2020-12-15T22:58:23Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Contrastive Representation Learning for Whole Brain Cytoarchitectonic
Mapping in Histological Human Brain Sections [0.4588028371034407]
本稿では,顕微鏡画像パッチを頑健な微細構造特徴に符号化するための対照的な学習手法を提案する。
この学習課題を用いて事前学習したモデルは、最近提案された補助課題に基づいて事前学習したモデルと同様に、スクラッチから訓練したモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T16:44:23Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。