論文の概要: Hatching-Box: Monitoring the Rearing Process of Drosophila Using an Embedded Imaging and in-vial Detection System
- arxiv url: http://arxiv.org/abs/2411.15390v1
- Date: Sat, 23 Nov 2024 00:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:21:22.164676
- Title: Hatching-Box: Monitoring the Rearing Process of Drosophila Using an Embedded Imaging and in-vial Detection System
- Title(参考訳): Hatching-Box:埋め込みイメージングとin-vial検出システムを用いたショウジョウバエの飼育過程のモニタリング
- Authors: Julian Bigge, Maite Ogueta, Luis Garcia, Benjamin Risse,
- Abstract要約: Hatching-Boxはショウジョウバエの生長行動を自動的に監視し定量化する新しい画像解析システムである。
我々は,ハッチボックスが集団行動に関する追加情報を抽出し,個々の標本のライフサイクル全体を再構築できることを示した。
- 参考スコア(独自算出の注目度): 2.4766939978090883
- License:
- Abstract: In this paper we propose the Hatching-Box, a novel imaging and analysis system to automatically monitor and quantify the developmental behavior of Drosophila in standard rearing vials and during regular rearing routines, rendering explicit experiments obsolete. This is achieved by combining custom tailored imaging hardware with dedicated detection and tracking algorithms, enabling the quantification of larvae, filled/empty pupae and flies over multiple days. Given the affordable and reproducible design of the Hatching-Box in combination with our generic client/server-based software, the system can easily be scaled to monitor an arbitrary amount of rearing vials simultaneously. We evaluated our system on a curated image dataset comprising nearly 470,000 annotated objects and performed several studies on real world experiments. We successfully reproduced results from well-established circadian experiments by comparing the eclosion periods of wild type flies to the clock mutants $\textit{per}^{short}$, $\textit{per}^{long}$ and $\textit{per}^0$ without involvement of any manual labor. Furthermore we show, that the Hatching-Box is able to extract additional information about group behavior as well as to reconstruct the whole life-cycle of the individual specimens. These results not only demonstrate the applicability of our system for long-term experiments but also indicate its benefits for automated monitoring in the general cultivation process.
- Abstract(参考訳): 本稿では,標準的な育種および定期養殖作業中におけるショウジョウバエの発達行動を自動的に監視し,定量化する新しい画像解析システムであるHatching-Boxを提案する。
これは、カスタムのカスタマイズされた撮像ハードウェアと専用の検出と追跡アルゴリズムを組み合わせることで実現され、幼虫の定量化、幼虫の充満/空羽毛の定量化、数日間の飛行を可能にしている。
汎用クライアント/サーバベースのソフトウェアと組み合わせて、ハッチングボックスの安価で再現可能な設計を考えると、システムは容易にスケールして、任意の量のアヒルを同時に監視できる。
我々は,約470,000個の注釈付きオブジェクトからなる画像データセット上で評価を行い,実世界の実験を行った。
野生ハエの閉鎖期間を手作業を伴わずに, 時計変異体である $\textit{per}^{short}$, $\textit{per}^{long}$, $\textit{per}^0$ と比較することにより, 確立された概日実験の結果の再現に成功した。
さらに,ハッチボックスは集団行動に関する追加情報を抽出し,個々の標本のライフサイクル全体を再構築できることを示した。
これらの結果は, 長期実験に適用可能であるだけでなく, 一般栽培における自動モニタリングのメリットも示している。
関連論文リスト
- Augment and Criticize: Exploring Informative Samples for Semi-Supervised
Monocular 3D Object Detection [64.65563422852568]
我々は、一般的な半教師付きフレームワークを用いて、難解な単分子3次元物体検出問題を改善する。
我々は、ラベルのないデータから豊富な情報的サンプルを探索する、新しい、シンプルで効果的なAugment and Criticize'フレームワークを紹介します。
3DSeMo_DLEと3DSeMo_FLEXと呼ばれる2つの新しい検出器は、KITTIのAP_3D/BEV(Easy)を3.5%以上改善した。
論文 参考訳(メタデータ) (2023-03-20T16:28:15Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - Agricultural Plant Cataloging and Establishment of a Data Framework from
UAV-based Crop Images by Computer Vision [4.0382342610484425]
本稿では,UAVからの収穫画像の時間的・空間的識別と識別を自動化するための手動ワークフローを提案する。
提案手法は農業におけるUAVデータの分析と解釈を大幅に改善する。
論文 参考訳(メタデータ) (2022-01-08T21:14:07Z) - Livestock Monitoring with Transformer [4.298326853567677]
我々は,集団飼育豚を対象としたエンドツーエンド行動監視システムを開発し,インスタンスレベルのセグメンテーション,トラッキング,行動認識,再識別タスクを同時実施する。
本稿では, トランスフォーマーアーキテクチャを用いて, グループ豚のインスタンスレベルの埋め込みを学習する, エンドツーエンド多目的家畜監視フレームワークであるStarformerについて紹介する。
論文 参考訳(メタデータ) (2021-11-01T10:03:49Z) - Multi-StyleGAN: Towards Image-Based Simulation of Time-Lapse Live-Cell
Microscopy [23.720106678247888]
生体細胞の時間分解蛍光顕微鏡像をシミュレートする手法としてMulti-StyleGANを提案する。
この新規な生成逆ネットワークは連続した時間ステップのマルチドメイン配列を合成する。
このシミュレーションは、細胞の形態、成長、物理的相互作用、および蛍光レポータータンパク質の強度など、基礎となる生理的要因と時間的依存を捉えている。
論文 参考訳(メタデータ) (2021-06-15T16:51:16Z) - Aurora Guard: Reliable Face Anti-Spoofing via Mobile Lighting System [103.5604680001633]
紙写真やデジタルビデオの高解像度レンダリングリプレイに対する反偽造は、未解決の問題だ。
オーロラガード(Aurora Guard, AG)と呼ばれる, シンプルだが効果的な顔保護システムを提案する。
論文 参考訳(メタデータ) (2021-02-01T09:17:18Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z) - Semi-Automatic Data Annotation guided by Feature Space Projection [117.9296191012968]
本稿では,適切な特徴空間投影と半教師付きラベル推定に基づく半自動データアノテーション手法を提案する。
MNISTデータセットとヒト腸内寄生虫の胎児不純物の有無による画像を用いて本手法の有効性を検証した。
この結果から,人間と機械の相補的能力を組み合わせた視覚分析ツールの付加価値が,より効果的な機械学習に有効であることが示唆された。
論文 参考訳(メタデータ) (2020-07-27T17:03:50Z) - The Automated Inspection of Opaque Liquid Vaccines [8.683940090609717]
異常を含む20フレームビデオサンプルの可能性を予測するために3D-ConvNetsを訓練する。
自己学習のアプローチにより、217,888のサンプルをラベル付けすることでデータセットを拡張できます。
論文 参考訳(メタデータ) (2020-02-21T16:45:29Z) - Automatic image-based identification and biomass estimation of
invertebrates [70.08255822611812]
時間を要する分類と分類は、どれだけの昆虫を処理できるかに強い制限を課す。
我々は、人間の専門家による分類と識別の標準的な手動アプローチを、自動画像ベース技術に置き換えることを提案する。
分類タスクには最先端のResnet-50とInceptionV3 CNNを使用する。
論文 参考訳(メタデータ) (2020-02-05T21:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。