論文の概要、ライセンス

# (参考訳) 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 [全文訳有]

Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination ( http://arxiv.org/abs/2205.04675v1 )

ライセンス: CC BY 4.0
Malika Nisal Ratnayake, Don Chathurika Amarathunga, Asaduz Zaman, Adrian G. Dyer, Alan Dorin(参考訳) 昆虫は作物の世界的な受粉者であり、自然生態系の持続性を維持する上で重要な役割を担っている。 したがって、昆虫の受粉監視と管理は作物の生産と食品の安全性を改善するのに不可欠である。 コンピュータビジョンによる受粉者監視は、手動で実現可能なデータ収集を強化することができる。 新たに得られたデータは、昆虫の分布を詳細に理解し、受粉効果を予測するのに十分な詳細な分析を容易にし、精度の高い受粉を誘導する。 現在のコンピュータビジョンでは、複雑な屋外環境での昆虫追跡は空間的に制限され、しばしば単一の昆虫種に制限される。 これは農業との関わりを制限している。 そこで,本研究では,昆虫数,昆虫運動追跡,行動解析,受粉予測などのマーカーレスデータ収集を容易にする新しいシステムを提案する。 本システムは,エッジコンピューティングによる多点映像記録,オフライン自動多種昆虫数,追跡,行動分析によって構成されている。 我々は,その能力を実証するために,市販のベリー農場でシステムを実装し,テストする。 本システムでは,ポリトンネル内の9つの監視ステーションで4種類の昆虫を追跡し,それぞれ0.8以上のf-scoreを得た。 このシステムは、各昆虫の相対的な受粉影響を評価するために重要な指標の計算を可能にした。 この技術進歩により、精密受粉のための詳細なデータ収集が可能となる。 これは、作物の受粉を管理する栽培者やアピアリストに、食糧生産と食品の安全性を改善するためにデータ駆動の意思決定を行うことを可能にするために重要である。

Insects are the most important global pollinator of crops and play a key role in maintaining the sustainability of natural ecosystems. Insect pollination monitoring and management are therefore essential for improving crop production and food security. Computer vision facilitated pollinator monitoring can intensify data collection over what is feasible using manual approaches. The new data it generates may provide a detailed understanding of insect distributions and facilitate fine-grained analysis sufficient to predict their pollination efficacy and underpin precision pollination. Current computer vision facilitated insect tracking in complex outdoor environments is restricted in spatial coverage and often constrained to a single insect species. This limits its relevance to agriculture. Therefore, in this article we introduce a novel system to facilitate markerless data capture for insect counting, insect motion tracking, behaviour analysis and pollination prediction across large agricultural areas. Our system is comprised of Edge Computing multi-point video recording, offline automated multi-species insect counting, tracking and behavioural analysis. We implement and test our system on a commercial berry farm to demonstrate its capabilities. Our system successfully tracked four insect varieties, at nine monitoring stations within a poly-tunnel, obtaining an F-score above 0.8 for each variety. The system enabled calculation of key metrics to assess the relative pollination impact of each insect variety. With this technological advancement, detailed, ongoing data collection for precision pollination becomes achievable. This is important to inform growers and apiarists managing crop pollination, as it allows data-driven decisions to be made to improve food production and food security.
公開日: Tue, 10 May 2022 05:11:28 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 5 7 6 4 0 1 v 5 7 6 4 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Spatial Monitoring and Insect Behavioural Analysis Using 空間モニタリングと昆虫行動解析 0.60
Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョン 0.75
Malika Nisal Ratnayake1*, Don Chathurika Amarathunga1, Asaduz Zaman1, Adrian Malika Nisal Ratnayake1*, Don Chathurika Amarathunga1, Asaduz Zaman1, Adrian 0.49
G. Dyer2,3 and Alan Dorin1 G. Dyer2,3 と Alan Dorin1 0.32
1Computational and Collective Intelligence Group, Dept. of Data Science and AI, Faculty 第1部 データサイエンス・ai学部 計算・集団知能グループ 0.61
of Information Technology, Monash University, Wellington Road, Melbourne, 3800, インフォメーション・テクノロジー モナッシュ大学 ウェリントン道路 メルボルン 3800 0.42
2School of Media and Communication, RMIT University, La Trobe Street, Melbourne, 2School of Media and Communication, RMIT University, La Trobe Street, Melbourne 0.42
3Department of Physiology, Monash University, Wellington Road, Melbourne, 3800, 3department of physiology, monash university, wellington road, melbourne, 3800, 0.42
3000, Victoria, Australia. オーストラリア、ビクトリア州。 0.51
Victoria, Australia. オーストラリアのビクトリア出身。 0.74
Victoria, Australia. オーストラリアのビクトリア出身。 0.74
*Corresponding author(s). E-mail(s): malika.ratnayake@mon ash.edu; ※著者) 電子メール: malika.ratnayake@mon ash.edu 0.33
Contributing authors: don.amarathunga@mona sh.edu; asaduzzaman@monash.e du; 寄稿: don.amarathunga@mona sh.edu; asaduzzaman@monash.e du; 0.39
adrian.dyer@rmit.edu .au, adrian.dyer@monash.e du; alan.dorin@monash.ed u; adrian.dyer@rmit.edu .au, adrian.dyer@monash.e du; alan.dorin@monash.ed u; 0.28
Abstract Insects are the most important global pollinator of crops and play a key role in maintaining the sustainability of natural ecosystems. 概要 昆虫は作物の世界的な受粉者であり、自然生態系の持続性を維持する上で重要な役割を担っている。 0.52
Insect pollination monitoring and management are therefore essential for improving crop production and food security. したがって、昆虫の受粉監視と管理は作物の生産と食品の安全性を改善するのに不可欠である。 0.57
Computer vision facilitated pollinator monitoring can intensify data collection over what is feasible using manual approaches. コンピュータビジョンによる受粉者監視は、手動で実現可能なデータ収集を強化することができる。 0.70
The new data it generates may provide a detailed understanding of insect distributions and facilitate fine-grained analysis sufficient to predict their pollination efficacy and underpin precision pollination. 新たに得られたデータは、昆虫の分布を詳細に理解し、受粉効果を予測するのに十分な詳細な分析を容易にし、精度の高い受粉を誘導する。
訳抜け防止モード: 彼らが生成する新しいデータは、昆虫の分布の詳細な理解を提供するかもしれない きめ細かい分析をしやすくする 受粉効果を予測し 精密受粉を支えます
0.70
Current computer vision facilitated insect tracking in complex outdoor environments is restricted in spatial coverage and often constrained to a single insect species. 現在のコンピュータビジョンでは、複雑な屋外環境での昆虫追跡は空間的に制限され、しばしば単一の昆虫種に制限される。 0.67
This limits its relevance to agriculture. これは農業との関わりを制限している。 0.58
Therefore, in this article we introduce a novel system to facilitate markerless data capture for insect counting, insect motion tracking, behaviour analysis and pollination prediction across large agricultural areas. そこで,本研究では,昆虫数,昆虫運動追跡,行動解析,受粉予測などのマーカーレスデータ収集を容易にする新しいシステムを提案する。
訳抜け防止モード: そこで本稿では,昆虫数計測のためのマーカーレスデータ捕捉を容易にする新しいシステムを提案する。 大規模農業地帯における昆虫の行動追跡,行動解析,受粉予測
0.78
Our system is comprised of Edge Computing multi-point video recording, offline automated multispecies insect counting, tracking and behavioural analysis. 本システムは,エッジコンピューティングによる多点映像記録,オフライン自動多種虫数計測,追跡,行動分析によって構成されている。 0.66
We implement and test our system on a commercial berry farm to demonstrate its capabilities. 我々は,その能力を実証するために,市販のベリー農場でシステムを実装し,テストする。 0.61
Our system successfully tracked four insect varieties, at nine monitoring stations within a poly-tunnel, obtaining an F-score above 0.8 for each variety. 本システムでは,ポリトンネル内の9つの監視ステーションで4種類の昆虫を追跡し,それぞれ0.8以上のf-scoreを得た。 0.69
The system enabled calculation of key metrics to assess the relative pollination impact of each insect variety. このシステムは、各昆虫の相対的な受粉影響を評価するために重要な指標の計算を可能にした。
訳抜け防止モード: キーメトリクスの計算を可能にするシステム それぞれの昆虫の相対的な受粉効果を評価すること。
0.68
With this technological advancement, detailed, ongoing data collection for precision pollination becomes achievable. この技術進歩により、精密受粉のための詳細なデータ収集が可能となる。 0.76
This is important to inform growers and apiarists managing crop pollination, as it allows data-driven decisions to be made to improve food production and food security. これは、作物の受粉を管理する栽培者やアピアリストに、食糧生産と食品の安全性を改善するためにデータ駆動の意思決定を行うことを可能にするために重要である。 0.56
Keywords: deep learning, camera trapping, honeybees, pollination, food security, insect tracking キーワード:ディープラーニング、カメラトラップ、ミツバチ、受粉、食品セキュリティ、昆虫追跡 0.63
1 1 0.42
英語(論文から抽出)日本語訳スコア
2 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 2 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
1 Introduction Pollinators play a key role in world food production and ecosystem management. はじめに 受粉者は世界の食糧生産と生態系管理において重要な役割を果たす。 0.60
Three out of four flowering plants (Food & Agriculture Organization of the United Nation, 2019) and 35% of agricultural land (FAO, 2018) require some degree of animal pollination. 4つの開花植物(2019年、米国食品農業機構)のうち3つと、農地の35%(2018年、fao)はある程度の動物の受粉を必要とする。 0.72
This includes over 87 high-value food crops consumed by humans (Aizen, Garibaldi, Cunningham, & Klein, 2009). これには、人間が消費する87以上の高価値食品作物が含まれている(Aizen, Garibaldi, Cunningham, & Klein, 2009)。 0.69
The annual market value of pollinator contributions to global food production is estimated to be in the range of 235− 577 billion USD (Potts et al , 2016). 世界の食料生産への受粉者の貢献の年間市場価値は235~577億米ドルと推定されている(Potts et al, 2016)。 0.75
Recently, climate change and other anthropogenic pressures have been implicated in declines in some pollinator populations (Schweiger et al , 2010; Vanbergen & Initiative, 2013), threatening global food security. 近年、気候変動やその他の人為的圧力は、世界の食料安全保障を脅かす、一部の受粉者(Schweiger et al , 2010; Vanbergen & Initiative, 2013)の減少に関係している。 0.72
In many instances, pollinator population size is directly correlated with crop yield (Rollin & Garibaldi, 2019), although the efficiency of different pollinator populations varies between crops (MacInnis & Forrest, 2019). 多くの場合、受粉者の個体数は収穫量と直接相関する(Rollin & Garibaldi, 2019)が、受粉者の個体数の効率は作物によって異なる(MacInnis & Forrest, 2019)。 0.70
Hence, improved understanding and management of pollinator communities is important to boost crop yield (Garibaldi, Requier, Rollin, & Andersson, 2017), and for the long-term viability of many farming projects (Garibaldi, S´aez, Aizen, Fijen, & Bartomeus, 2020). したがって、受粉者コミュニティの理解と管理の改善は、収穫量を増加させること(Garibaldi, Requier, Rollin, & Andersson, 2017)と、多くの農業プロジェクト(Garibaldi, S ́aez, Aizen, Fijen, & Bartomeus, 2020)の長期的な存続性のために重要である。 0.74
This need strongly motivates the research presented here to describe the design and implementation of computer vision facilitated spatial monitoring and insect behavioural analysis for precision pollination. このことは、精密受粉のための空間モニタリングと昆虫の行動分析を促進するコンピュータビジョンの設計と実装を記述するために、ここで提示された研究を強く動機づける必要がある。
訳抜け防止モード: この研究の動機は 精密受粉のための空間モニタリングと昆虫行動解析を容易にするコンピュータビジョンの設計と実装について述べる。
0.80
Insect monitoring and sampling can help us to understand different insect species’ roles in crop and other flowering plant pollination. 昆虫のモニタリングとサンプリングは、作物やその他の開花植物の受粉における昆虫種の役割を理解するのに役立ちます。 0.69
Traditional methods of insect monitoring are straightforward to conduct but are time-consuming and labour intensive. 従来の昆虫モニタリングの方法は簡単に行うことができるが、時間と労力がかかる。 0.57
The use of human labour for traditional sampling may unintentionally bias results (Dennis et al , 2006; Simons & Chabris, 1999), increase processing lead times, reduce reproducibility, and inhibit or interfere with active pollination monitoring conducted simultaneously in different areas of a site. 従来のサンプリングにおける人的労働力の使用は、意図しない偏見の結果(Dennis et al , 2006; Simons & Chabris, 1999)、処理リード時間の増加、再現性低下、およびサイトの異なる場所で同時に実施されるアクティブな受粉監視の抑制または妨害などである。 0.67
Furthermore, conventional sampling methods lack functional precision – the capacity to model pollinator movements, motion paths and spatial distributions. さらに、従来のサンプリング法は、受粉者の動き、運動経路、空間分布をモデル化する能力である機能的精度を欠いている。 0.56
This restricts their value as a means to understand how insect behaviour effects pollination. これにより、昆虫の行動が受粉に与える影響を理解する手段としての価値が制限される。 0.51
Automated and detailed pollination 自動および詳細な受粉 0.78
monitoring techniques with high functional precision are needed that allow continuous assessment of pollination levels. 受粉レベルの連続的な評価を可能にするために,機能精度の高いモニタリング技術が必要である。 0.65
Mechanised efforts to count insects have been attempted and improved over the last century, although it is only with improved technology and Artificial Intelligence that individual recognition in complex environments has started to emerge as a realistic proposition (Odemer, 2022). 昆虫を数えるための機械的努力は、前世紀を通じて試みられ、改善されてきたが、複雑な環境における個々の認識が現実的な命題として現れ始めたのは、技術と人工知能の改善によってのみである(Odemer, 2022)。 0.63
In turn, this will facilitate the efficient management of pollinator resources as agriculture increasingly embraces data-driven, AI-enhanced technology (Abdel-Raziq, Palmer, Koenig, Molnar, & Petersen, 2021; Breeze et al , 2021; Howard, Nisal Ratnayake, Dyer, Garcia, & Dorin, 2021). これにより、農業がデータ駆動のAI技術を採用するようになるにつれて、受粉者の資源の効率的な管理が促進される(Abdel-Raziq, Palmer, Koenig, Molnar, & Petersen, 2021; Breeze et al , 2021; Howard, Nisal Ratnayake, Dyer, Garcia, & Dorin, 2021)。 0.82
Improvement in sensor technology has enabled the use of inexpensive Internet of Things (IoT) devices, such as cameras and miniature insectmounted sensors, for pollination monitoring. センサー技術の改善により、カメラや小型昆虫搭載センサーなどの安価なモノのインターネット(IoT)デバイスを受粉監視に利用できるようになった。 0.80
Insect-mounted sensors allow movement tracking of tagged insects over large areas (Abdel-Raziq et al , 2021). 昆虫搭載センサーは、広範囲にわたるタグ付き昆虫の動き追跡を可能にする(abdel-raziq et al, 2021)。 0.61
However, the technique is unsuitable for agriculture since tagging is laborious, it may increase insect stress or alter behaviour (Batsleer et al , 2020), and it is simply impractical on a large enough scale to be relevant in this context. しかし、タグ付けは手間がかかるため農業には適さないため、昆虫のストレスや行動の変化を増大させる可能性がある(Batsleer et al , 2020)。
訳抜け防止モード: しかし、タグ付けは手間がかかるため農業には適さない。 昆虫のストレスや行動の変化を引き起こす可能性がある(Batsleer et al, 2020)。 この文脈に関係するほど 大規模では実用的ではありません
0.67
Camera-based pollination monitoring can overcome these drawbacks by tracking untagged insects using computer vision and deep learning (Howard et al , 2021; Ratnayake, Dyer, & Dorin, 2021a). カメラによる受粉監視は、コンピュータビジョンと深層学習(Howard et al , 2021a; Ratnayake, Dyer, & Dorin, 2021a)を用いて、未タグの昆虫を追跡することで、これらの欠点を克服することができる。 0.60
In this research, we introduce a novel computer vision system to facilitate pollination monitoring for large-scale agriculture. 本研究では,大規模農業における受粉モニタリングを容易にするコンピュータビジョンシステムを提案する。 0.84
Our system is comprised of Edge Computing multi-point remote capture of unmarked insect video footage, automated offline multi-species motion tracking, as well as insect counting and behavioural analysis. 本システムは,無標昆虫映像のエッジコンピューティングマルチポイントリモートキャプチャ,オフライン多種自動モーショントラッキング,昆虫の計数と行動分析により構成する。 0.64
We implemented and tested our methods on a commercial berry farm to 私たちは商業用ベリー農場で我々の方法を実装しテストした。 0.62
(i) track individual movements of multiple varieties of unmarked insect, (i)複数種の無標昆虫の個体運動を追跡する。 0.72
(ii) count insects, (ii)昆虫を数える。 0.76
(iii) monitor their flower visitation behaviour, and (iii)花の訪問行動をモニターし、 0.77
(iv) analyse contributions of different species to pollination. (iv)受粉に対する異なる種の寄与を分析する。 0.73
Along with this article we publish the monitoring software, a dataset of over 2000 insect tracks of four insect classes, and an annotated dataset of images from the four classes. 本論文では,モニタリングソフトウェア,昆虫の4つのクラスからなる2000以上の昆虫の足跡のデータセット,および4つのクラスの画像の注釈付きデータセットを公表する。 0.81
We believe that these will serve as a benchmark for future research in precision pollination, a new and important area of precision agriculture. これらは、精密農業の新しい重要領域である精密受粉における将来の研究の指標となると信じている。 0.76
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
3 The remainder of the paper is organised as follows. 3 紙の残りは次のように整理される。 0.60
In Section 2 we present a brief overview of related work concerning computer vision for insect tracking in the wild. 第2節では,野生昆虫追跡のためのコンピュータビジョンに関する関連研究の概要について述べる。 0.76
Section 3 presents our new methods and their implementation. 第3節では、新しいメソッドとその実装を紹介します。 0.53
In section 4 we describe experiments to evaluate the performance of our approach and present the results of a pollination analysis to demonstrate our methods’ application. 第4節では,提案手法の性能を評価する実験について述べ,受粉分析の結果について述べる。 0.68
In Section 5 we discuss the strengths and limitations of our approach and suggest future work. 第5節では,アプローチの強みと限界について論じ,今後の研究を提案する。 0.67
Section 6 concludes the paper. 第6節はその論文を締めくくる。 0.54
2 Related Work Recently there has been an increase in the use of computer vision and deep learning in agriculture (Kamilaris & Prenafeta-Bold´u, 2018; Odemer, 2022). 2 関連作業 近年、コンピュータビジョンと農業におけるディープラーニングの利用が増加している(Kamilaris & Prenafeta-Bold ́u, 2018; Odemer, 2022)。 0.81
This has been prominent in land cover classification (Lu et al , 2017), fruit counting (Afonso et al , 2020), yield estimation (Koirala, Walsh, Wang, & McCarthy, 2019), weed detection (Su, Kong, Qiao, & Sukkarieh, 2021), beneficial and insect pest monitoring (Amarathunga, Grundy, Parry, & Dorin, 2021), and insect tracking and behavioural analysis (Høye et al , 2021). これは、土地被覆分類(Lu et al , 2017)、果実計数(Afonso et al , 2020)、収量推定(Koirala, Walsh, Wang, & McCarthy, 2019)、雑草検出(Su, Kong, Qiao, & Sukkarieh, 2021)、有益害虫モニタリング(Amarathunga, Grundy, Parry, & Dorin, 2021)、昆虫追跡と行動分析(Høye et al, 2021)において顕著である。 0.72
Applications of insect tracking and behavioural analysis algorithms are usually confined to controlled environments such as laboratories (Branson, Robie, Bender, Perona, & Dickinson, 2009; Haalck, Mangan, Webb, & Risse, 2020; P´erez-Escudero, Vicente-Page, Hinz, Arganda, & De Polavieja, 2014; Walter & Couzin, 2021), and semi-controlled environments such as at beehive entrances (Campbell, Mummert, & Sukthankar, 2008; Magnier et al., 2019; Yang, Collins, & Beckerleg, 2018). 昆虫追跡と行動分析アルゴリズムの応用は通常、研究室(Branson, Robie, Bender, Perona, & Dickinson, 2009; Haalck, Mangan, Webb, & Risse, 2020; P ́erez-Escudero, Vicente-Page, Hinz, Arganda, & De Polavieja, 2014; Walter & Couzin, 2021)や養蜂場(Campbell, Mummert, & Sukthankar, 2008; Magnier et al., 2019; Yang, Collins, & Beckerleg, 2018)のような制御された環境に限られている。 0.85
In these situations, image backgrounds and illumination under which insects are tracked vary only a little, simplifying automated detection and tracking tasks. これらの状況下では、昆虫を追跡する画像背景や照明はわずかに異なり、自動化された検出と追跡タスクを単純化する。 0.68
Pollination monitoring of crops however, may require tracking unmarked insects outdoors in uncontrolled environments subjected to vegetation movement caused by the wind, frequent illumination shifts, and movements of tracked and non-target animals. しかし、農作物の受粉監視には、風による植物移動、頻繁な照明シフト、追跡・非標的動物の移動による無防備環境において、屋外の無標昆虫を追跡する必要がある可能性がある。 0.56
These environmental changes, combined with the complexity of insect movement under such variable conditions, increases the difficulty of the tracking problem. これらの環境変化は、このような変動条件下での昆虫の動きの複雑さと相まって、追跡問題の難しさを増大させる。 0.61
Recent studies attempted to address these issues through in-situ insect monitoring algorithms (Bjerge, Mann, & Høye, 2021; Bjerge, Nielsen, Sepstrup, HelsingNielsen, & Høye, 2021), but were limited in the 近年の研究は昆虫モニタリングアルゴリズム(Bjerge, Mann, & Høye, 2021; Bjerge, Nielsen, Sepstrup, HelsingNielsen, & Høye, 2021)を通じてこれらの問題に対処しようとしたが、限定的であった。 0.88
spatiotemporal resolution required for efficient pollination monitoring. 効率的な受粉監視に必要な時空間分解能 0.58
To overcome the difficulties listed above, we previously presented a Hybrid Detection and Tracking (HyDaT) algorithm (Ratnayake, Dyer, & Dorin, 2021b) and a Polytrack algorithm (Ratnayake et al , 2021a) to track multiple unmarked insects in uncontrolled conditions. 困難を克服する 前述したように、ハイダット(hydat)アルゴリズム(ratnayake, dyer, & dorin, 2021b)とポリトラックアルゴリズム(ratnayake et al , 2021a)を提案し、無制御条件下で複数の無標昆虫を追跡した。 0.73
HyDaT and Polytrack algorithms use a hybrid detection model consisting of a deep learningbased detection model (Bochkovskiy, Wang, & Liao, 2020; Redmon & Farhadi, 2017) and a foreground/backgroun d segmentation-based detection model (Zivkovic & Van Der Heijden, 2006). HyDaTとPolytrackアルゴリズムは、ディープラーニングに基づく検出モデル(Bochkovskiy, Wang, & Liao, 2020; Redmon & Farhadi, 2017)と、フォアグラウンド/バックグラウンドセグメンテーションに基づく検出モデル(Zivkovic & Van Der Heijden, 2006)からなるハイブリッド検出モデルを使用している。 0.82
This enables tracking unmarked and free-flying insects amidst the changes in the environment. これにより、環境の変化の中で無マークで自由飛行する昆虫を追跡することができる。 0.50
However, these earlier algorithms are limited to one species and one study location at a time. しかし、これらの初期のアルゴリズムは1つの種と1つの研究場所に限定されている。 0.64
To gain a sophisticated understanding of agricultural pollination, these constraints are limiting since analysis of the behaviour of multiple insect species that contribute simultaneously, in multiple locations, to overall pollination levels or deficiencies is important (Garibaldi et al , 2020; Rader et al , 2016). 農業受粉の高度な理解を得るためには、複数の場所において、全体の受粉レベルや欠陥に同時に寄与する複数の昆虫の行動を分析することが重要である(Garibaldi et al , 2020; Rader et al , 2016)。 0.68
Currently there is no computer vision facilitated system, or any other practical system, capable of achieving this goal. 現在、この目標を達成することができるコンピュータビジョン支援システムやその他の実用システムはない。 0.75
In addition, no previous method can identify and classify insect pollination behaviour across large-scale industrial agricultural areas at a level of detail that permits sub-sitespecific interventions to increase farm yield via improved pollination. また、大規模な農業地帯における昆虫の受粉行動の特定や分類は、受粉の改善による作物収量の向上にサブサイト固有の介入を許容する詳細レベルでは不可能である。 0.65
3 Methods and Implementation In this section, we explain the methods and implementation of our insect and pollination monitoring system. 3つの方法 実施 本稿では,昆虫・受粉監視システムの方法と実施方法について解説する。 0.67
An overview of the proposed methodology is shown in Fig 1. 提案手法の概要を図1に示す。 0.54
3.1 Multi-point remote video 3.1マルチポイントリモートビデオ 0.68
capture Video footage of freely foraging, unmarked insects required for insect tracking and behavioural analysis was collected using edge computing-based remote camera trap devices built on the Raspberry Pi single board computer. 捕獲 昆虫の追跡や行動分析に要する無標の昆虫を、raspberry piのシングルボードコンピュータに内蔵されたエッジコンピューティングベースのリモートカメラトラップデバイスを用いて、自由に飼育するビデオ映像を収集した。
訳抜け防止モード: 捕獲 昆虫追跡と行動分析に必要な無印昆虫を自由に捕食する映像が収集された エッジコンピューティング - Raspberry Piのシングルボードコンピュータ上に構築されたリモートカメラトラップデバイス。
0.70
We used a Raspberry Pi 4 and Raspberry Pi camera v2 (Sony IMX219 Raspberry Pi 4とRaspberry Piカメラv2(Sony IMX219)を使ってみた 0.79
英語(論文から抽出)日本語訳スコア
4 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 4 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
Fig. 1: Overview of the proposed methodology 第1図:提案手法の概要 0.65
8-megapixel sensor) because it is widely available, customisable, there’s a wide range of plug-in sensors, and it is sufficiently low-cost for replication across a large area (Jolles, 2021). 8メガピクセルのセンサー)は広く利用でき、カスタマイズ可能で、幅広いプラグインセンサーがあり、広い範囲で複製するのに十分なコストがかかる(Jolles, 2021)。 0.74
Videos are recorded at 1920 × 1080 resolution at 30f ps. ビデオは1920×1080解像度で30fpsで録画される。 0.72
The system is powered using a 20000mAh battery bank. このシステムは20000mAhのバッテリーバンクで駆動される。 0.82
However, we do not process videos to track pollinators in situ since the Raspberry Pi is currently incapable of processing high quality videos in real-time, and our key goals required detection of insects. しかし、Raspberry Piは現在高品質なビデオをリアルタイムで処理できないため、その場で受粉者を追跡するためにビデオは処理しません。
訳抜け防止モード: しかし ビデオは処理しません 受粉者をその場で追跡する raspberry piは現在、高品質なビデオをリアルタイムで処理できない。 主な目的は昆虫の検出でした
0.66
Reducing the video resolution or the capture frame-rate to compensate for the lack of speed of the device is not currently feasible within the limitations imposed by pollinator insect speed and size. ビデオ解像度やキャプチャフレームレートを減らして、デバイスの速度の欠如を補うことは、現在、受粉昆虫の速度とサイズによって課される制限の中で実現不可能である。
訳抜け防止モード: ビデオ解像度やキャプチャフレームの削減 - レート 装置の速度の欠如を補う 受粉昆虫の速度とサイズに制限が課せられているため、現在は不可能である。
0.81
Video recording units were distributed across nine data collection points in an experimental site (section 3.4 below) and were programmed to continuously record sets of footage clips of 10 minutes duration. ビデオ録画ユニットは実験現場で9つのデータ収集ポイントに分散し(第3条4項)、連続して10分間の映像クリップを記録できるようにプログラムされた。 0.78
The caption of each video clip contained metadata on camera location, recording date and recording time. 各ビデオクリップのキャプションには、カメラの位置、記録日時、記録時間に関するメタデータが含まれている。 0.63
(Refer to code availability for the software used in the video recording unit.) (ビデオ録画装置で使用するソフトウェアについては、コード参照を参照)。 0.82
3.2 Automated multi-species insect 3.2 自動多種昆虫 0.38
tracking We processed the videos captured remotely using an offline automated video processing algorithm. 追跡 遠隔地で撮影した映像をオフライン自動処理アルゴリズムで処理した。 0.68
Since food crops are usually grown in uncontrolled or semi-controlled environments subject to changes in illumination and foliage movement caused by wind and/or insect and human activity, 作物は、通常、風や昆虫、人間の活動による照明や葉の移動の変化によって、制御されていないまたは半制御された環境で栽培される。 0.61
robust tracking of insects and flowers is essential for accurate pollination and insect behavioural analysis. 昆虫や花の堅固な追跡は、正確な受粉と昆虫の行動分析に不可欠である。 0.62
Here, we extended methods proposed in Ratnayake et al (2021a, 2021b) to track multiple insect varieties simultaneously and to detail their interactions with flowers. そこで我々は,Ratnayake et al (2021a, 2021b) で提案された複数の昆虫を同時に追跡し,花との相互作用を詳細に示す手法を拡張した。 0.67
In the following sections we present the technical details of our methods. 本稿では,本手法の技術的詳細について述べる。 0.65
At the start of processing each video sequence, our algorithm extracts the time and location at which the video was captured from the sequence’s embedded metadata. 各ビデオシーケンスの処理を開始すると、アルゴリズムはビデオが埋め込まれたメタデータからキャプチャされた時間と位置を抽出する。 0.73
Next, the video is processed to track movement of insects and their interactions with flowers. 次にビデオが処理され、昆虫の動きと花との相互作用を追跡する。 0.80
Pilot research revealed that the position of each respective flower being recorded varies throughout a day due to wind and farm management activities, and flowers may physically move termed heliotropism in some cases to track sunlight (Kevan, 1975; van der Kooi, Kevan, & Koski, 2019). パイロット研究により、各花の位置は風と農場の管理活動によって1日中変化し、花は日光を追跡するために物理的にヘリオトロピズムと呼ばれることがある(kevan, 1975; van der kooi, kevan, & koski, 2019)。 0.73
Therefore, it is essential to track flower position within the frame to reliably identify insect-flower interactions. したがって, 昆虫と花の相互作用を確実に識別するためには, フレーム内の花の位置を追跡することが不可欠である。 0.53
The positions of all visible flowers are first recorded at the start of a video sequence and updated in predefined userspecified intervals (Parameters values are provided with the source code). 全ての可視花の位置は、まずビデオシーケンスの開始時に記録され、予め定義されたユーザ指定間隔で更新される(パラメータ値にソースコードが付与される)。 0.80
A “predict and detect” approach is used to track flower movement. 予測と検出”アプローチは,花の動きを追跡するために使用される。 0.74
The predicted next position of each flower is initially identical to its current position, since the magnitude of flower movement within a short interval (e g , ≈ 100seconds) is assumed to be small. それぞれの花の次の位置は、短い間隔(e g , ... 100秒)で動く花の大きさが小さいと仮定されるため、当初は現在の位置と同一である。 0.75
We then used the Hungarian algorithm (Kuhn, 1955) to associate the predicted position of each flower to a flower detection in order to form a continuous flower movement track. その後、ハンガリーのアルゴリズム(Kuhn, 1955)を用いて、予測された各花の位置を花検出に関連付け、連続した花の動きトラックを形成する。 0.81
If a flower being tracked 花が追跡されている場合 0.64
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
5 is undetected in a given frame, the last detected position is carried forward. 5 与えられたフレームで検出されず、最後に検出された位置が前方に運ばれる。 0.52
If a detected flower cannot be assigned to any predictions it is considered to be a new flower. 検出された花がいかなる予測にも割り振られなければ、それは新しい花と考えられる。 0.81
At the end of a video sequence, the final positions of flowers and their respective tracks of interacting insects are saved for later pollination analysis and visualisation. ビデオシーケンスの最後には、花の最終位置とその相互作用する昆虫の軌跡が、後の受粉分析と可視化のために保存される。 0.77
When an insect is first detected inside a video frame, the automated video processing algorithm identifies its species using the Polytrack deep learning model (Ratnayake et al , 2021a). ビデオフレーム内で最初に昆虫が検出されると、自動ビデオ処理アルゴリズムはポリトラック深層学習モデル(Ratnayake et al , 2021a)を用いてその種を識別する。 0.86
In addition, it saves a snapshot of the insect for (optional human) visual verification. さらに、昆虫のスナップショットを保存して(オプションで人間の)視覚的検証を行う。 0.70
After detection and identification of an insect, the Polytrack algorithm tracks it through subsequent frames. 昆虫の検出と同定の後、ポリトラックアルゴリズムはそれを後続のフレームで追跡する。 0.72
In each frame after the first detection of an insect, its position is compared with the position of recorded flowers to identify flower visits. 昆虫を最初に検出した後の各フレームにおいて、その位置を記録花の位置と比較し、花見を識別する。 0.78
If an insect is detected inside the radius of a flower for more than 5 consecutive frames (at 30 fps this ensures it is not flying over the flower at typical foraging flight speeds (Spaethe, Tautz, & Chittka, 2001)), the spatial overlap is stored as a flower visit. 花の半径の内側で5フレーム以上にわたって昆虫が検出されると(30fpsで、典型的な給餌飛行速度(spaethe, tautz, and chittka, 2001)で花の上を飛んでいないことが保証される)、空間的重なりは花訪問として記憶される。 0.83
The radius of a flower is computed to include its dorsal area and an external boundary threshold. 花の半径は、背部領域と外部境界閾値を含むように計算される。 0.75
This threshold is incorporated as some insects station themselves outside of a flower while accessing nectar or pollen. この閾値は、一部の昆虫が蜜や花粉にアクセスしながら花の外側に寄生するときに組み込まれている。
訳抜け防止モード: この閾値は 一部の昆虫は、蜜や花粉にアクセスしながら花の外に配置します。
0.66
Repeat visits to a flower that occur after an intermediate visit to another flower are recorded as flower re-visits. 他の花への中間訪問後に起こる花への繰り返し訪問を、花の再訪問として記録する。 0.75
When an insect exits the video frame, a file with data on camera location, time of capture and insect trajectories with flower visitation information is saved for behavioural analysis. 昆虫がビデオフレームを出ると、カメラ位置、捕獲時刻、花見情報付き昆虫軌跡などのファイルが、行動分析のために保存される。 0.65
The software and recommended tracking parameter values are available with the source code. ソフトウェアと推奨追跡パラメータの値はソースコードで利用可能である。 0.86
3.3 Insect behaviour analysis 3.3 昆虫の行動分析 0.68
We analysed insect flower visiting behaviour using the extracted movement trajectories to infer likely pollination events. 抽出した移動軌跡を用いて昆虫の花見行動を分析し,花粉発生の可能性を推察した。 0.62
This is appropriate since flowers have evolved structures that enable visiting insects to conduct pollen dispersal and transfer between floral reproductive organs for fertilisation of ovules by pollen (Real, 2012). これは、昆虫が花粉を散布し、花粉による卵胞の受精のために花の生殖器官間の移動を可能にする構造が花が進化してきたためである(real, 2012)。 0.66
Matrices used to analyse flower visitation behaviour and pollination are presented below. 花の訪問行動や受粉の分析に用いられる行列を以下に示す。 0.62
Let S = {s1, s2, ..., s|S|} and F be the set of insects belonging to different species (or varieties at any taxonomic level) and the set of flowers in S = {s1, s2, ..., s|S|} と F を異なる種(またはあらゆる分類学レベルでの品種)に属する昆虫の集合とし、花の集合とする。 0.84
1, si the experimental environment respectively. 1・・ それぞれ実験環境である。 0.75
Here, si = {si 2, ..., si|si|} denotes the subset of insects in S that belong to the ith species type, and si j is the jth insect in si. ここで、si = {si 2, ..., si|si|} は ith 種に属する s の昆虫のサブセットを表し、si j は si の j 番目の昆虫である。 0.76
|. | is the cardinality of a given set – e g , |S| is the number of species types, |si| is the number of insects belonging to the ith species. |. | は与えられた集合の濃度 – e g , |s| は種数、 |si| はith種に属する昆虫の数である。 0.56
• Number of flowers visited by an insect •昆虫が訪れた花の数 0.80
species The number of flowers visited by an insect species si is defined as F V (si), where nf si is the j of species si visited number of times insect si flower f ∈ F . 種 昆虫 si が訪れた花の数は F V (si) と定義され、nf si は昆虫 si の花 f ∈ F の回数 si の j である。 0.67
j F V (si) = j F V (si) = 0.42
nf si j (1) nf si j (1) 0.42
• Total number of visits to a flower f from species si Total number of visits to a flower f from species si is defined as V F (f, si). ※花fの訪問総数 種 si 種 si の花 F への総訪問回数は V F (f, si) と定義される。 0.56
V F (f, si) = V F (f, si) = 0.43
nf si j (2) nf si j (2) 0.43
• Total number of visits to a flower f j=1 ※花f訪問の総数 j=1 0.38
Total number of visits to a flower f is defined as V (f ). 花 f への総訪問数は V (f ) と定義される。 0.77
V (f ) = nf si V (f ) = nf si 0.43
j (3) • Number of flowers fertilised with visits j (3) ※訪問で受精する花の数 0.53
i=1 j=1 i=1 である。 j=1 0.30
from species si Number of flowers fertilised with visits from species si is defined as Npol(si), where ˆV is the number of visits required for fully fertilisation of a flower. 種 si から、種 si からの訪問で受精した花の数を npol(si) と定義する。
訳抜け防止モード: 種 si から、種 si からの訪問で受精した花の数を npol(si) と定義する。 v は、花の完全な受精に必要な訪問回数である。
0.73
Npol(si) = Npol(si) = 0.42
[V F (f, si) ≥ ˆV ] [V F (f, si) ≥ > V ] 0.44
(4) • Total number of fertilised flowers (4) ・全肥化花数 0.49
Total number of fertilised flowers in a location defined as Npol. Npolとして定義された場所には、全数の花が咲く。 0.58
Npol = [V F (f, si) ≥ ˆV ] ヌポル= [V F (f, si) ≥ > V ] 0.43
(5) |si|(cid:88) (5) |si|(cid:88) 0.38
(cid:88) j=1 (cid:88) j=1 0.34
f∈F フェーーーーーーーーーーーーーーーーーーーーーーーーー 0.07
|si|(cid:88) |si|(cid:88) 0.33
|S|(cid:88) |S| (cid:88) 0.33
|si|(cid:88) |si|(cid:88) 0.33
(cid:88) f∈F (cid:88) フェーーーーーーーーーーーーーーーーーーーーーーーーー 0.23
|S|(cid:88) |S| (cid:88) 0.33
(cid:88) i=1 (cid:88) i=1 である。 0.35
f∈F f.f.f.f.f.f.f.f.f.f. f.f.f.f.f.f.f.f.f.f 0.01
英語(論文から抽出)日本語訳スコア
6 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 6 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
3.4 Implementation We implemented the proposed spatial monitoring and insect behavioural analysis system on the commercial Sunny Ridge farm in Boneo, Victoria, Australia (lat. 38.420942° S, long. 144.890422° E) (Fig. 2a). 3.4 実装 オーストラリア・ビクトリア州ボノの商業用サニーリッジ農場 (lat. 38.420942° s, long. 144.890422° e) において, 空間的モニタリングと昆虫行動分析システムを実装した。 0.68
Sunny Ridge grows strawberries in polytunnels covered with translucent LDPE diffusing plastic and in open fields (Fig. 2b). サニーリッジは、プラスチックとオープンフィールドに拡散する半透明LDPEで覆われたポリタンネルでイチゴを栽培する(図2b)。 0.67
We installed remote video recording units over nine data collection points in strawberry polytunnels (Fig. 2 b). リモートビデオ記録装置をイチゴポリタンネルに9つのデータ収集点上に設置した(図2b)。 0.72
These data collection points were selected to cover the edges and central regions of the polytunnels because previous studies indicated that edge effects might impact insect movement, foraging behaviour and numbers within polytunnels (Hall, Jones, Rocchetti, Wright, & Rader, 2020; Howard et al , 2021). これらのデータ収集ポイントは、昆虫の移動、捕食行動、ポリタンネル内の数(Hall, Jones, Rocchetti, Wright, & Rader, 2020; Howard et al , 2021)に影響を及ぼす可能性があるため、ポリタンネルのエッジと中央領域をカバーするために選択された。 0.70
Videos were recorded for a period of 6 days (8th - 17th March 2021) from 11 : 00am to 4 : 00pm (≈ 5 hours) to coincide with the key pollination period. ビデオは, 主要な受粉時期に合わせて, 11:00amから4 :00pmまでの6日間(2021年3月8日~17日)に記録された。 0.65
The video frames covered an area of ∼ 700mm× ∼ 400mm which is the width of a planted strawberry row at the site (Fig. 2d). ビデオフレームは、現場で植えられたイチゴの列の幅である700mm×400mmの範囲をカバーしていた(図2d)。 0.78
The strawberry farm uses honeybees as managed pollinators but farm management staff had also observed other insects visiting crop flowers. イチゴ農場はミツバチを受粉者の管理に使っているが、農業管理スタッフは作物の花を訪れる他の昆虫も観察していた。 0.56
We monitored the behaviour of four key insect types, honeybees (Apis mellifera), Syrphidae (hover flies), Lepidoptera (moths and butterflies), and Vespidae (wasps) that actively forage on the farm (Fig. 3). ミツバチ (apis mellifera) , ハエ科 (sirphidae) , ハエ科 (lepidoptera (moths and butterflies) およびハエ科 (vespidae (wasps) の4つの主要な昆虫の行動を観察した(第3図)。 0.74
Moths and butterflies were treated as a single insect pollinator class (Lepidoptera) for pollination analysis because of their relatively low numbers. コウモリと蝶は, 受粉数が少ないため, 単独の受粉者クラス (Lepidoptera) として扱われた。 0.68
Manovich, & Zhavoronkov, 2019). Manovich, & Zhavoronkov, 2019)。 0.82
The YOLOv4 model was then trained on this dataset using TensorFlow (Abadi et al , 2016) with a learning rate of 0.001. YOLOv4モデルは、TensorFlow(Abadi et al , 2016)を使用して、0.001の学習レートでトレーニングされた。 0.80
3.4.2 Processing videos 3.4.2 プロセッシングビデオ 0.61
We processed the videos to extract insect tracks and insect-flower visiting behaviour using the methods described in Section 3.2. 第3部2節に記載した手法を用いて,昆虫の足跡と昆虫花の観察行動の抽出を行った。 0.57
Videos were processed on the MASSIVE high performance computing infrastructure (Goscinski et al , 2014) with Intel Xeon Gold 6150 (2.70 GHz) CPU, 55 GB RAM, NVIDIA Tesla P4 GPU and CentOS Linux (7). ビデオは、Intel Xeon Gold 6150 (2.70 GHz) CPU、55 GB RAM、NVIDIA Tesla P4 GPU、CentOS Linux (7) で、MASSIVEの高性能コンピューティングインフラ(Goscinski et al , 2014)で処理された。 0.86
3.4.3 Insect trajectory dataset 3.4.3 昆虫軌道データセット 0.53
preparation We post-processed insect tracks extracted from the videos to remove false positive tracks and correct insect type identifications. 準備 ビデオから昆虫の足跡を抽出し,偽陽性の足跡を除去し,昆虫のタイプを同定した。 0.69
Insect type identification was performed on multiple still frames of each insect assigned to a motion track. 移動軌跡に割り当てられた各昆虫の複数の静止枠に昆虫型同定を行った。 0.79
A further step was appended to this process to manually classify Hymenoptera into two separate classes, honeybees and Vespidae. このプロセスにさらにステップが加えられ、手動でヒメノプテアをミツバチとベスプ科の2つの分類に分類した。 0.61
As reported above, these insects were initially treated as a single class in training the deep learning model due to the difficulty of clearly resolving morphological differences between them in flight at low video resolution and 30 fps. 前述のように、これらの昆虫は当初、低解像度で飛行中と30fpsで形態的差異を明確に解決できないため、ディープラーニングモデルの訓練において単一のクラスとして扱われていた。 0.67
4 Results 3.4.1 Training the deep-learning model 4結果 3.4.1 ディープラーニングモデルのトレーニング 0.67
4.1 Experimental evaluation The automated video processing system employs a deep learning model to detect insects and flowers. 4.1 実験評価 この自動ビデオ処理システムは、深層学習モデルを用いて昆虫や花を検出する。 0.77
We created a custom dataset of 3073 images divided into four classes: 3073枚の画像のカスタムデータセットを4つのクラスに分けて作成しました。 0.57
(i) honeybees/Vespidae (2231/371 instances), (ハチミツバチ科(2231/371例) 0.32
(ii) Syrphidae (204 instances), (ii)シロフ科(204例) 0.75
(iii) Lepidoptera (93 instances), and 三 甲虫類(93例)及び 0.50
(iv) strawberry flowers (14050 instances). (四)イチゴの花(14050例) 0.34
Honeybees and wasps were included in a single Hymenopteran class due to their physical similarities and the difficulty of automatically distinguishing between them using the low-quality video footage extracted from the basic cameras (discussed further below). ミツバチとスズメバチは、物理的に類似性があり、基本的なカメラから抽出された低品質のビデオ映像を使って自動的に区別することが難しいため、単一の昆虫類に含まれていた(後述)。 0.56
The prepared dataset was annotated with bounding boxes using the Computer Vision Annotation Tool (Sekachev, 作成したデータセットには,Computer Vision Annotation Tool(Sekachev)を使用したバウンディングボックスが添付されている。
訳抜け防止モード: 用意されたデータセットは、バウンディングボックスで注釈付けされた コンピュータビジョンアノテーションツール(Sekachev,
0.87
We evaluated the performance of our system for extracting the trajectory and flower visitation behaviour of four insect types (Fig. 3). 本研究では,4種の昆虫の行動・花見行動の抽出システムの性能評価を行った(第3報)。 0.77
Experiments were conducted using a test dataset of 180, 000 frames/100 minutes at 30 frames per second (comprised of 10 sequential videos of 10 minutes each). 実験は、30フレーム/秒で180,000フレーム/100分(各10分間のシーケンシャルビデオ10本)のテストデータセットを用いて行われた。 0.82
These videos were randomly selected from the set of recordings unused in deep learning model training and captured from different polytunnel locations (Test video dataset is accessible from Data Availability). これらのビデオは、ディープラーニングモデルのトレーニングで使用されていない一連の記録からランダムに選択され、異なるポリタンネル位置からキャプチャされた(テストビデオデータセットはデータアベイラビリティからアクセス可能である)。 0.62
We measured the tracking accuracy and detection rate using precision (Equation 精度を用いた追跡精度と検出率の測定(方程式) 0.83
6) and recall (Equation 6)とリコール(等級) 0.73
7) matrices. We also calculated the Fscore (Equation 7) 行列。 fscore (equation) も計算しました 0.68
8) (Barreiros, Dantas, Silva, 8) (Barreiros, Dantas, Silva, 0.42
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
7 Fig. 2: Implementation of the pollination monitoring system. 7 第2図:受粉監視システムの実装。 0.52
a, A map of the Sunny Ridge berry farm (implementation site near the city of Melbourne, Victoria, Australia.) and surrounding areas. a、サニーリッジベリー農場の地図(オーストラリアのビクトリア州メルボルン市に近い実装地)と周辺地域。 0.57
Locations of managed honeybee hives are indicated with yellow circles. 管理されたミツバチの巣の場所は黄色い円で示される。 0.51
b, Nine data collection points in strawberry polytunnels. b) イチゴポリタンネの9つのデータ収集点。 0.63
c, Edge computing-based remote video capture units placed over strawberry vegetation. エッジコンピューティングベースのリモートビデオキャプチャーユニットをイチゴの植物の上に設置する。 0.58
d, A sample image to indicate the field of view captured by a monitoring unit. d)監視ユニットによってキャプチャされた視野のフィールドを示すサンプル画像。 0.79
(The white ruler measures 31 cm end-to-end). (白の定規は31cm。) 0.60
Ribeiro, & Barros, 2021) metric which combines the recall and precision matrices. Ribeiro, & Barros, 2021) はリコール行列と精度行列を組み合わせた計量である。 0.75
P recision = p のレゾクション = 0.66
T rueP ositive T rueP ositive 0.42
T rueP ositive + F alseP ositive T rueP ositive + F alseP ositive 0.42
(6) Recall = T rueP ositive (6) リコール= T rueP ositive 0.48
T rueP ositive + F alseN egative T rueP ositive + F alseN egative 0.43
F score = 2 × (Recall × P recision) fスコア = 2 × (recall × P recision) 0.53
Recall + P recision recall + P recision 0.36
(7) (8) (7) (8) 0.42
英語(論文から抽出)日本語訳スコア
8 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 8 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
(a) (b) (c) (a) (b) (c) 0.43
(d) Fig. 3: Insect pollinator types foraging on the farm. (d) 図3: 農場で捕食する昆虫の受粉者タイプ。 0.56
Images of key insect types 昆虫のキータイプの画像 0.81
(a) Apis mellifera sp. (a)Apis mellifera sp。 0.78
(Hymenoptera), (b) Syrphidae (Diptera), (甲虫目) (b)シロフ科(ディプテラ) 0.55
(c) Lepidoptera, and (d) Vespidae (Hymenoptera) captured using the low-cost edge computing-based remote video recording devices. (c)甲虫類、及び (d) vespidaeは低コストのエッジコンピューティングベースのリモートビデオ記録装置を用いて捕獲される。 0.75
where, T rueP ositive is the total number of correct detections in all frames; F alseN egative is the total number of undetected insects in frames and F alseP ositive is the total number of incorrectly detected insect positions. t ruep ositive は全フレームの正しい検出数、f alsen egive はフレーム内の検出されていない昆虫の総数、f alsep ositive は不正に検出された昆虫の総数である。
訳抜け防止モード: T rueP ositive はすべてのフレームにおいて正しい検出の総数である F alseN egative is the total number of untected insects in frames F alseP ositive は間違った検出された昆虫の位置の総数である。
0.85
Identity swaps (where a pair of insect’s identities are mistakenly swapped) in tracks were recorded as F alseP ositive. トラック内のアイデンティティスワップ(昆虫の1対のIDが誤って入れ替わる場所)は、F alseP ositiveとして記録された。 0.60
The tracks and flower visits reported by our system were compared against human observations made from the videos for validation as we found no other existing monitoring system against which to compare our software. また,本システムで報告した足跡や花見は,本ソフトウェアと比較する既存のモニタリングシステムがないため,検証のためにビデオから作成した人間の観察結果と比較した。 0.76
Test videos were observed by playing them on VLC media player at ×5 speed to record insects and flowers. 実験ビデオはvlcメディアプレーヤーで5×5速で再生して昆虫や花を撮影することで観察された。
訳抜け防止モード: テストビデオは観察されました 昆虫や花を記録するために5倍速でVLCメディアプレーヤーで演奏する。
0.73
When an insect appeared in the frame, the video was analysed frame by frame to record its flower visits. フレームに昆虫が現れたとき、ビデオはフレームによって分析され、花見を記録しました。 0.80
An insect landing on the dorsal side of a flower was counted as a flower visitor. 花の背側への昆虫の着陸は、花の訪問者として数えられた。 0.74
Insects that appeared inside the frame of the video for less than 5 frames were ignored since at 30 fps this time is too brief to be likely to have any biological impact on pollination. ビデオのフレーム内に5フレーム未満で現れた昆虫は、今回は30fpsと短すぎて受粉に生物学的な影響を及ぼさないため無視された。 0.74
If an insect departed a frame and later 昆虫が枠を離れて後になっても 0.64
reappeared, or if it flew under the foliage and later reappeared, it was considered as a ”new” insect. 再出現した、または葉の下を飛んだ後に再び現れた場合、それは「新しい」昆虫と見なされた。 0.69
For experimental results see Table 1. 実験結果についてはテーブル1を参照。 0.68
Fig 4 shows the trajectories of insects recorded in test videos. 図4は、テストビデオに記録された昆虫の軌跡を示している。 0.63
In our test videos, the proposed algorithm tracked honeybees with an overall precision of 0.99, a recall of 0.92 and an F-score of 0.95. 実験ビデオでは,ミツバチの完全精度0.99,リコール0.92,f-score 0.95のミツバチを追跡した。 0.65
The insect behavioural analysis component of the algorithm accurately detected 97% of honeybeeflower interactions, and 3% of flower interactions were not recorded due to undetected flowers. このアルゴリズムの昆虫行動分析成分はミツバチの花の相互作用の97%を正しく検出し, 花の相互作用の3%は検出されなかった。 0.86
Test videos comprised six appearances of Syrphidae and the algorithm accurately detected five of them resulting in a detection rate of 83%. 実験ビデオはシロップ科の出現6種からなり, アルゴリズムは5種を正確に検出し, 検出率は83%であった。
訳抜け防止モード: シルフ科の6つの外見を収録した試験ビデオ アルゴリズムは5つを正確に検出し 検出率は83%でした
0.83
The algorithm tracked Syrphidae with high precision (1.00), but the recall rate of 0.71 and F-score of 0.81 were lower than that of honeybees. アルゴリズムは高い精度 (1.00) でシロフ科を追跡したが, ミツバチのリコール率は 0.71 であり, f-score は 0.81 であった。 0.67
These lower values were due to the frames where the insect was undetected (see Discussion). これらの低い値は、昆虫が検出されていないフレームに起因する(議論を参照)。 0.67
Tracking matrices related to Lepidoptera were similar to that of Syrphidae, where the algorithm detected and tracked 75% of Lepidopterans with precision, recall and Fscore values of 0.99, 0.71 and 0.81 respectively. レピドプテリ類に関する追跡行列はシロプテリ科のものと似ており、アルゴリズムはレピドプテリ類の75%を精度0.99、0.71、0.81の精度で検出・追跡した。 0.63
It also recorded all Lepidopteran flower interactions. また、全ての昆虫の花の相互作用を記録した。 0.50
The algorithm detected and tracked all Vespidae present in test videos with a precision rate of 1.00. このアルゴリズムは、テストビデオに存在する全てのベスプ科を1.00の精度で検出・追跡した。 0.63
However, the recall rate and the F-score were 0.73 and 0.83 respectively. しかし,リコール率は0.73,Fスコア0.83であった。 0.69
This was because the video frame rate was to low to track some high speed Vespidae movements. これは、ビデオフレームレートが低かったために、いくつかの高速なヴェスポア科の動きを追跡できたためである。 0.56
4.2 Insect behavioural analysis for 4.2 昆虫の行動分析 0.81
precision pollination precision pollination 0.42
We applied our methods to analyse pollination in a commercial berry farm to demonstrate its practical relevance for precision pollination. 本手法を商業用ベリー農場における受粉分析に適用し, 精密受粉の実用的意義を実証した。 0.63
The dataset for pollination analysis consisted of 1805 honeybees, 84 Syrphidae, 100 Lepidoptera and 341 Vespids. 受粉解析のためのデータセットは1805のミツバチ、84のシラフ科、100の甲虫類、341の獣脚類であった。
訳抜け防止モード: 受粉分析のデータセットは,ハチミツバチ1805頭,シロイヌナズナ84頭であった。 Lepidoptera 100とVespids 341。
0.60
The complete trajectory dataset of insects and flowers is accessible from Data Availability. 昆虫と花の完全な軌道データセットは、データアベイラビリティからアクセスできる。 0.82
Spatial monitoring and insect behavioural analysis can help growers quantify pollination across different farm areas. 空間モニタリングと昆虫の行動分析は、農家が異なる農地で受粉を定量化するのに役立ちます。 0.55
We compared pollination levels across farm strawberry polytunnels using insect counts and the number of insect-flower interactions recorded at each location. 昆虫数と各場所で記録された昆虫と花の相互作用数を用いて,イチゴの多孔体における受粉率を比較検討した。
訳抜け防止モード: 昆虫数を用いたイチゴポリタンゴの受粉量の比較 そして、各場所で記録された昆虫と花の相互作用の数。
0.64
Research suggests that a strawberry flower requires a minimum of four insect visits to be fully fertilised (Chagnon, Gingras, & De Oliveira, 研究によると、イチゴの花は、完全に受精するために最低4回の昆虫の訪問を必要とする(Chagnon、Gingras、De Oliveira)。 0.62
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
9 Table 1: Results of the experimental evaluations for the test video dataset. 9 表1: テストビデオデータセットの実験評価結果。 0.51
“Detections made” shows the number of insects/flowers detected by the algorithm compared against human observations. は、人間の観察と比較して、アルゴリズムによって検出された昆虫や花の数を示しています。 0.54
“Trackletts generated” shows the total number of tracks generated for each insect variety. trackletts generated”は、昆虫の種類ごとに生成されるトラックの総数を示す。 0.79
“Visible frames” indicates the number of frames the insects/flowers were fully visible in the frame. 可視フレーム(visible frames)とは、昆虫や花が完全に見えるフレームの数をいう。 0.70
“Evaluation matrices” present the average precision, recall and F-score values for tracked insects. 評価行列」は、追跡昆虫の平均精度、リコール値、Fスコア値を示す。 0.63
“Flower visits” compares the total number of insect visits to flowers counted through human observations and automatically identified through the software for tracked insects. Flower visits”は、人間の観察で数えた花の昆虫の総数を比較し、追跡された昆虫のソフトウェアで自動的に識別する。 0.76
TP = True positive, FP = False positive, FN = False-negative. TP = 真正、FP = 偽正、FN = 偽負。 0.34
Trackletts generated トラックレットの生成 0.53
Visible frames Evaluation matrices 可視フレーム 評価行列 0.71
Flower Visits Precision Recall F-score Obs. 花見 精密リコールf-score obs。 0.50
TP FP Insect/ Flower TP FP 昆虫・花 0.51
Honeybee Syrphidae Lepidoptera ミツバチ科lepidoptera 0.66
Detections made 20/20 検出 製 20/20 0.56
5/6 3/4 Vespidae 5/6 3/4 ベスプ科 0.41
10/10 Flower 68/72 10/10 花 68/72 0.32
∗ Multiple tracks generated by single insect. *単一昆虫が生成する複数のトラック。 0.76
† Insect not detected for tracking. Insectは追跡のために検出されない。 0.58
‡ Resulted from undetected flower(s). は、未発見の花(花)に由来する。 0.46
23 ∗ 6 ∗ † 5 ∗ † 10 23 ∗ 6 ∗ † 5 ∗ † 10 0.42
68 16846 3436 3158 589 68 16846 3436 3158 589 0.43
179306 0.99 1.00 0.99 1.00 179306 0.99 1.00 0.99 1.00 0.33
1.00 0.92 0.71 0.71 0.73 1.00 0.92 0.71 0.71 0.73 0.26
0.94 0.95 0.81 0.81 0.83 0.94 0.95 0.81 0.81 0.83 0.26
0.97 67 5 6 0 0.97 67 5 6 0 0.36
65 4 6 0 0 1 1 0 65 4 6 0 0 1 1 0 0.42
FN 2 ‡ 1 0 0 FN 2 ‡ 1 0 0 0.42
N/A N/A N/A N/A N/A N/A N/A N/A 0.23
Fig. 4: Trajectories of insects and flower positions recorded in test videos. 図4: テストビデオに記録された昆虫と花の位置の軌跡。 0.83
Track colour indicates insect variety. The number of tracks recorded for each insect type is shown in the legend in brackets beside insect type. 色は昆虫の種類。 昆虫の種類ごとに記録された足跡の数は、昆虫型の横のブラケットに記録されている。 0.59
Flower locations are circled in yellow. 花の場所は黄色です。 0.67
1989; Garibaldi et al , 2020). 1989年、garibaldi et al、2020年)。 0.75
Therefore, the number of insect visits to a flower can be used to predict its pollination level. そのため、花に寄る昆虫の数は、受粉レベルを予測するのに利用できる。 0.68
We used the collected spatial monitoring data to identify flowers that 収集した空間モニタリングデータを用いて花を識別した。 0.70
received at least four insect visits during the biologically relevant data collection period [5 hours] over which our system operated. 生物学的に関連のあるデータ収集期間 [5時間] に少なくとも4回の昆虫の訪問を受けた。 0.74
Analysis results are shown in Fig 5. 分析結果はfig 5で示される。 0.79
英語(論文から抽出)日本語訳スコア
10 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 10 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
Fig. 5: Results of the spatial monitoring and insect behavioural analysis for precision pollination. 第5図:精密受粉のための空間モニタリングと昆虫行動分析の結果 0.72
Bar charts above the plots indicate the number of tracks, total number of flower visits, and number of flowers recorded at each location. プロット上のバーチャートは、トラックの数、花の総数、各場所に記録された花の数を示している。 0.79
Bar colour for tracks and flower visits indicates the proportion of tracks recorded for each insect type. 足跡と花見のバーカラーは、昆虫の種類ごとに記録された足跡の割合を示す。 0.65
Strawberry flowers typically require four visits for full fertilisation (Chagnon et al , 1989; Garibaldi et al , 2020). イチゴの花は通常、完全な受精には4回の訪問を必要とする(chagnon et al , 1989; garibaldi et al , 2020)。 0.67
The dark grey portion of the flowers’ bar graph shows the number of flowers with over four insect visits. 花の棒グラフの暗い灰色部分は、昆虫が4回以上訪れた花の数を示しています。 0.77
“T” and “F” in the title blocks are the total number of tracks and flowers recorded at each location. タイトルブロックの“T”と“F”は、各場所で記録されたトラックと花の総数である。 0.82
Trajectory plots show all insect tracks recorded at each location throughout the data collection period. 軌道プロットは、データ収集期間を通じて各場所で記録された全ての昆虫の軌跡を示す。 0.62
Track colours represent different insect varieties. トラックカラーは異なる昆虫種を表す。 0.76
Flower locations are circled in yellow. 花の場所は黄色です。 0.67
Flower-visitation behaviour reflects insects’ crop pollination contributions. 花の開花行動は昆虫の受粉貢献を反映している。 0.56
We quantified this on the strawberry flowers by calculating the percentage of flowers that received visits from each これを定量化し イチゴの花は それぞれの花から 訪れた花の割合を計算して 0.64
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
11 insect type. We further analysed insect-flower visits to evaluate the pollination efficacy of insect types by calculating the proportion of flowers that received the minimum of four insect visits required for fertilisation. 11 昆虫型。 さらに, 施肥に必要な最低4回以上を受粉した花の割合を算出し, 昆虫種の受粉効果を評価するために, 昆虫花見学を行った。 0.62
Results of this analysis are shown in Fig 6. この分析結果は図6に示されています。 0.81
At all data collection points, we recorded a higher number of honeybees than other insects (Fig. 5). すべてのデータ収集点において,ミツバチは他の昆虫よりも多く記録した(図5)。 0.71
These insects contributed the most towards achieving the flower-visitation targets required for fertilisation (Fig. 6). これらの昆虫は、受精に必要な開花目標を達成するために最も役立った(第6図)。
訳抜け防止モード: これらの昆虫が最も貢献した 開花 - 受精に必要な訪問目標(第6図)。
0.70
The next highest recorded insect were the Vespids (341 tracks) (Fig. 5). 次に記録された昆虫はVespids(341トラック)である(第5図)。 0.71
However, Vespids were rarely observed to be visiting flowers – at location 1 we did identify Vespidae flower visits; see Fig 6. しかし、ベシピドが花を訪れるのはほとんど見られず、第1地点ではベシピド科の花の訪問を確認した。 0.68
This suggests that Vespids do not contribute much to strawberry pollination. これはベスピドがイチゴの受粉にはあまり貢献していないことを示唆している。 0.43
Indeed Vespids may be a predator of other insects (Spencer, Barton, Ripple, & Newsome, 2020) and can act to inhibit pollination. 実際、vespidsは他の昆虫の捕食者(spencer, barton, ripple, & newsome, 2020)であり、受粉を阻害することができる。 0.74
We recorded relatively low Lepidopteran and Syrphidae counts in most areas of the farm (Fig. 5). 農場のほとんどの地域で比較的低い甲殻類とシロフ科の個体数を記録した(第5図)。 0.65
The contribution of these species towards achieving flower-visitor targets required for pollination was observed to be much lower than that of honeybees (Fig. 6). 受粉に必要な花寄生目標達成へのこれらの種の寄与はミツバチよりもずっと低いことが観察された(第6図)。 0.77
This effect is evident by the low relative frequency with which these insects made successive visits to flowers to meet the four required for optimal fertilisation (Fig. 6). この効果は、これらの昆虫が最適な受精に必要な4つを満たすために連続して花を訪れるという低い相対頻度によって明らかである(図6)。 0.72
For example, the highest frequency of a non-honeybee pollinator to meet four visits was Lepidoptera at location 9 where less than 15% of flowers achieve this level of pollination; whilst at all locations honeybees significantly exceeded this level of pollination performance (Fig. 6). 例えば、ハナミツバチ以外の受粉者が4回訪問した頻度が最も高かったのは、花の15%未満の花が受粉する場所であるlepidopteraであり、どの場所においてもミツバチがこの受粉性能を大幅に上回っていた(第6図)。 0.58
When pollination across all locations is considered, over 68% of the recorded strawberry flowers received the minimum of four insect visits required for fertilisation, and 67% of flowers attained this threshold through honeybee visits alone. 各地の受粉を考慮すると、記録されているイチゴの花の68%以上が、受精に必要な最低4回の昆虫訪問を受けており、花の67%はミツバチ単独でこの閾値に達した。 0.70
This data thus reconfirms which insects seem, at least as far as the number of visits is concerned, to contribute the most towards pollination at the site. このデータは、少なくとも訪問数に関して、どの昆虫のように見えるかを再確認し、この場所での受粉に最も貢献する。 0.57
5 Discussion and Future Work 5 討論と今後の課題 0.77
Insect pollination monitoring can improve our understanding of the behaviour of insects on crops. 昆虫の受粉監視は、作物における昆虫の行動の理解を改善することができる。 0.65
It can therefore potentially boost crop yield on farms were it not currently heavily constrained by the labour required for manual data collection. そのため、現在手動データ収集に必要な労働力に強く制約されていないため、農場での収穫量を増加させる可能性がある。 0.57
In this study, a novel multi-point computer visionbased system is presented to facilitate digital spatial monitoring and insect behavioural analysis on large scale farms. 院 本研究では,大規模農場におけるデジタル空間モニタリングと昆虫行動分析を容易にするために,新しい多点コンピュータビジョンベースシステムを提案する。 0.61
Our system operates in real-world commercial agricultural environments (Fig. 2) to capture videos of identify them (Fig. 3), and count the number of different varieties over large areas (Fig. 5). 本システムは,実世界の商業農業環境(第2図)で動作し,特定した映像をキャプチャし(第3図),広域の異なる品種数をカウントする(第5図)。 0.69
Analysis of the insect behavioural data allows comparison of the contributions of different insect varieties to crop pollination (Fig. 5 and 6). 昆虫行動データの解析は、異なる昆虫種の作物の受粉に対する寄与の比較を可能にする(第5図と第6図)。 0.78
Here, we discuss the implications of our research for precision pollination. 本稿では,精密受粉研究の意義について論じる。 0.64
insects, 5.1 Computer vision for insect 虫だ 5.1 昆虫のコンピュータビジョン 0.71
tracking and behavioural analysis Our methods remove the major constraints imposed by the limitations of human observers for horticultural pollination monitoring and the collection of high-resolution spatiotemporal data (Fig. 5) on insect behaviour. 追跡と行動分析 本手法は,環境汚染モニタリングにおけるヒト観察者の制限と昆虫の行動に関する高分解能時空間データ(第5図)の収集に課される大きな制約を取り除く。 0.56
The approach therefore also paves the way for computer vision and edge computing devices to identify insect species for other entomological and ethological applications. したがってこのアプローチは、コンピュータビジョンやエッジコンピューティングデバイスが昆虫種を他の昆虫学や倫理学の応用のために識別する方法でもある。 0.70
The use of relatively inexpensive Raspberry Pi edge computing devices (Fig. 2) for remote recording provides a high degree of scalability and customisability (Aslanpour et al , 2021; O’Grady, Langton, & O’Hare, 2019) for insect monitoring. 比較的安価なraspberry pi edgeコンピューティングデバイス(図2)をリモート記録に使用することで、高いスケーラビリティとカスタマイズ性(aslanpour et al, 2021; o’grady, langton, and o’hare, 2019)を昆虫モニタリングに活用することができる。 0.78
However, the limited capabilities of these devices confines the size of recorded study areas (Fig. 2d) and offers only low frame rates and low quality video. しかし、これらのデバイスの限られた能力は、記録された研究領域(図2d)のサイズを狭め、低フレームレートと低品質ビデオのみを提供する。 0.75
This reduced the system’s ability to detect small Syrphidae, and resulted in issues with the detection and tracking of fast-moving Vespids (Table 1). これにより、システムは小型のシロフ科を検知する能力が低下し、高速に動く小胞体の検出と追跡に問題が発生した(表1)。 0.67
In addition, the current implementation continuously recorded videos on the Raspberry Pi even when there was no insect in the camera frame. さらに、現在の実装では、カメラフレームに虫がいなくても、raspberry piのビデオを継続的に録画している。 0.72
This wastes the limited storage and power capacities available on edge computing devices. これにより、エッジコンピューティングデバイスで利用可能な限られたストレージと電力容量が無駄になる。 0.60
We aim to address this drawback in future work by implementing an in-situ algorithm on the edgecomputing device for real-time event processing. 我々は,リアルタイムイベント処理のためのエッジ計算装置にその場でアルゴリズムを実装することで,今後の課題に対処することを目指している。 0.61
It is likely that with the rapid improvement of camera technology, video quality and resolution will overcome current limitations and enhance the accuracy and efficiency of our methods. カメラ技術の急速な改良により,映像品質と解像度は現在の限界を克服し,手法の精度と効率を向上させる可能性が高い。 0.86
英語(論文から抽出)日本語訳スコア
12 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 12 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
Fig. 6: Contribution of different insect varieties towards strawberry pollination. 図6:イチゴの受粉に対する異なる昆虫種の寄与 0.73
Bar chart shows percentage of flowers visited by each insect type. バーチャートは、各昆虫が訪れる花の割合を示しています。 0.66
The dark grey portion shows the percentage of flowers with over four (number of visits required for strawberry flower fertilisation (Chagnon et al , 1989; Garibaldi et al , 2020)) from each insect type. 暗灰色の部分は、昆虫の種類ごとに4つ以上の花(イチゴの花の受精に必要な訪問回数(chagnon et al , 1989; garibaldi et al , 2020)の比率を示している。 0.80
The red dashed line in the plots show the total percentage of flowers with more than four visits in a location. プロットの赤い破断線は、ある場所に4回以上訪れた花の総比率を示している。 0.71
We applied our new methods to monitor insect pollination behaviour in strawberry crops. 我々は,イチゴ栽培における昆虫の受粉行動のモニタリングに新しい手法を適用した。 0.65
Strawberry flowers bloom within a narrow vertical spatial range and are usually visible from above (Fig. 2d). イチゴの花は狭い垂直な空間範囲に咲き、通常は上から見える(図2d)。 0.73
By contrast, other crops, such as tomatoes or raspberry, grow within complex three-dimensional structures of vines or canes, making overhead camera tracking of insects problematic. 対照的に、トマトやラズベリーなどの他の作物は、ブドウや杖の複雑な3次元構造の中で成長し、虫のカメラによる追跡が問題となる。 0.67
Monitoring their behaviour in such three-dimensional crops will require camera placements at oblique angles. このような三次元作物の挙動を観察するには、斜めにカメラを設置する必要がある。 0.54
Insect detection is an essential precursor to tracking and monitoring. 昆虫の検出は、追跡と監視の重要な前駆体である。 0.66
Our algorithm accurately detected honeybees and Vespidae but performed relatively poorly on Syrphidae (Table 1). ミツバチ科とベスプ科を高精度に検出したが,シロップ科の成績は低かった(第1表)。 0.42
This is because of the relatively small pixel area covered by the insect with our setup (Syrphidae covers ≈ 40 ± 10 pixels compared to ≈ 1001 ± 475 pixels for a honeybee) (Fig. 3). これは、我々の設定で昆虫が被るピクセル面積が比較的小さいためである(Syrphidae は、ミツバチの場合、1001±475ピクセルに比べて 40 ± 10 ピクセル)(図3)。 0.70
Future improvements in cameras and object detection technologies (Stojni´c et al , 2021) will help here. 未来 カメラと物体検出技術の改善(Stojni ́c et al , 2021)が役に立つだろう。 0.79
Our algorithm uses deep learning to detect and classify insects. アルゴリズムは深層学習を用いて昆虫の検出と分類を行う。 0.74
The results of experimental evaluation showed limitations in Lepidopteran detection and visually similar insect detection (i.e. honeybees, Syrphidae and Vespidae (Fig. 3 and Table 1)). 実験評価の結果,ハチ類,ハチ類,ハチ類およびハチ類(第3および第1図)の昆虫検出に限界があることが判明した。
訳抜け防止モード: 実験結果から,レピドプテラン検出と視覚的に類似した昆虫検出(ハチミツバチ)の限界が確認された。 Syrphidae and Vespidae (Fig . 3 and Table 1 ) 。
0.85
Detection of Lepidopterans was challenging because they sometimes appear similar in shape to foliage and shadows in the environment. レピドプテミス類の検出は、しばしば環境中の葉や影と似た形に見えるため困難であった。 0.65
Also, they rested stationary on flowers for extended periods, prompting the algorithm to classify them as part of the background. また、彼らは花に一定期間留まり、アルゴリズムがそれらを背景の一部として分類するように促した。 0.70
Detection and classification of visually similar insects requires a deep learning model trained with large annotated datasets. 視覚的に類似した昆虫の検出と分類には、大きな注釈付きデータセットで訓練された深層学習モデルが必要である。 0.57
For the current study, we built a dataset from scratch in the absence of suitable open annotated datasets for entomology 現在の研究のために、私たちは、昆虫学に適したオープンアノテートデータセットがない状態で、ゼロからデータセットを構築しました。 0.51
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
13 (Høye et al , 2021). 13 (Høye et al , 2021)。 0.62
However, our dataset was unbalanced, since the number of instances in each class was influenced by the relative abundance of insects recorded at the site (Wang et al , 2016). しかし,各クラスにおけるインスタンス数は,現場で記録された昆虫の相対的存在量に影響されたため,データセットはバランスがとれていなかった(wang et al , 2016)。 0.75
We propose that future research should use characteristics of insect behaviour, such as spatial signatures of insect movement, to improve species classification tasks (Kirkeby et al , 2021). 今後の研究は,昆虫行動の空間的シグネチャなどの昆虫行動の特徴を利用して,種分類作業を改善するべきである(kirkeby et al, 2021)。 0.85
This will help overcome limitations associated with camera quality and deep learning datasets. これにより、カメラの品質とディープラーニングデータセットに関連する制限を克服できる。 0.54
The video data we publish with this article offers a starting point for such solutions. 私たちがこの記事で公開するビデオデータは、そのようなソリューションの出発点となります。 0.61
5.2 Spatial monitoring for precision 5.2 精度の空間モニタリング 0.80
pollination Spatial monitoring and insect behavioural analysis can help growers understand the distribution of pollinators across a farm and their impact on pollination. 受粉 空間的モニタリングと昆虫の行動分析は、農家における受粉者の分布と受粉への影響を理解するのに役立つ。
訳抜け防止モード: 受粉 空間モニタリングと昆虫行動分析は 栽培者は、農場全体の受粉者の分布と受粉への影響を理解する。
0.62
We quantified pollination by counting insect numbers and insect-flower interactions (Fig. 5). 昆虫数と昆虫と花の相互作用を数えることで受粉を定量化した(第5図)。 0.57
Farm areas with many flowers and insects will likely yield the most crop if there are a suitable number of insect-flower interactions. 多くの花と昆虫を持つ農地は、適切な数の昆虫と花の相互作用がある場合、最も作物を産出する可能性が高い。 0.59
Strawberry flowers require at least four insect visits for full fertilisation (Chagnon et al , 1989; Garibaldi et al., 2020). イチゴの花は、完全な受精には少なくとも4つの昆虫の訪問を必要とする(chagnon et al , 1989; garibaldi et al., 2020)。 0.67
However, it is important to note that crop yield and visitation rates have been observed to have a non-linear relationship (Garibaldi et al , 2020), where higher flower visitation rates can result in lower crop yield (Garibaldi et al , 2020; Rollin & Garibaldi, 2019). しかし、作物の収量と訪問率は非直線的な関係(Garibaldi et al , 2020)が観察されており、花の開花率が高いと収量が少なくなる(Garibaldi et al , 2020; Rollin & Garibaldi, 2019)。 0.65
Therefore, it is beneficial to maintain insect flower visits at an optimum value that depends on the crop type, pollinator species, and environmental conditions (Garibaldi et al , 2020). したがって、作物の種類、受粉者種、環境条件に依存する最適な価値で昆虫の花見を維持することは有益である(Garibaldi et al , 2020)。 0.73
Although different behaviours and morphologies make some insect species more effective pollinators of some flowers than others, we compared the contribution of different insect varieties to strawberry pollination using the number of insect flower visits as a proxy (Fig. 6). 異なる行動や形態は、一部の昆虫種を他の花の受粉者より効果的にするが、異なる昆虫種とイチゴの受粉に対する寄与を、昆虫の訪問回数を指標として比較した(第6図)。 0.77
The analysis suggests that strawberries can obtain sufficient pollination solely from honeybees (Figure 6), even without the presence of other insects. 分析の結果,イチゴは他の昆虫がいなくてもミツバチのみから十分な受粉が得られることが示唆された(第6図)。 0.65
However, an agricultural system driven by a single pollinator type may not be desirable. しかし、単一の受粉者型で駆動される農業システムは望ましいものではないかもしれない。 0.58
Pollinator diversity and associated high flower visitor richness have been shown to affect pollination and crop yield Garibaldi et al (2016). 受粉者の多様性と高花の訪問者の豊かさは受粉と収量に影響を与えている(2016年)。
訳抜け防止モード: 花粉の多様性と高花の訪問者の豊かさ garibaldi et al (2016) の受粉と作物収量に影響を与える。
0.69
Often the high abundance of a single pollinator species cannot be used as a 多くの場合、単一の受粉剤種が多量に使用されることはない。 0.61
substitute for species richness Fijen et al (2018); Garibaldi et al (2016) as variations in behaviour and foraging inherent to different insect species may be important. 種多様性 種多様性 fijen et al (2018), garibaldi et al (2016) は異なる昆虫種に固有の行動や採餌の多様性として重要である。 0.74
Compared to manual pollination monitoring, our methods provide high-resolution behavioural data classified by insect type. 本手法は,手作業による受粉モニタリングと比較し,昆虫タイプ別に分類した高分解能行動データを提供する。 0.52
Our spatial monitoring results (Fig. 空間モニタリングの結果(第2報) 0.63
5) can assist farm managers to identify farm areas that require immediate attention in order to maximise fruit set. 5) 農家経営者が果物を最大化するために即時注意を要する農地を特定するのを支援することができる。 0.69
Furthermore, the behavioural pollination contribution analysis (Fig. さらに,行動的受粉貢献分析(fig)を行った。 0.67
6) can provide tools and data to identify efficient pollinator species for a particular crop, enabling data-driven pollination management. 6) 特定の作物の効率的な受粉種を特定するためのツールやデータを提供し、データ駆動受粉管理を可能にする。 0.62
Pollination monitoring helps understand the impact of climate change and other anthropogenic activities on insect populations (Settele, Bishop, & Potts, 2016). 受粉モニタリングは、気候変動やその他の人為的活動が昆虫集団に与える影響を理解するのに役立つ(settele, bishop, & potts, 2016)。 0.72
Recently, climate change and other anthropogenic pressures, including intensive agriculture, have caused a decline in some pollinator populations (Hallmann et al , 2017; Outhwaite, McCann, & Newbold, 2022; Schweiger et al , 2010; Vanbergen & Initiative, 2013) threatening global food security and terrestrial ecosystem health. 近年、気候変動やその他の人為的な圧力、例えば集中農業は、世界の食料安全保障と地上生態系の健康を脅かすいくつかの受粉者(hallmann et al , 2017; outhwaite, mccann, & newbold, 2022; schweiger et al , 2010; vanbergen & initiative, 2013)の人口減少を引き起こしている。 0.76
The most impacted pollinator populations are native and wild insects that must compete for food with managed pollinators while coping with disease, pollution and habitat loss (Wood et al , 2020). 最も影響の大きい受粉者集団は、自然および野生の昆虫であり、病気、汚染、生息地喪失に対処しながら、管理された受粉者と食物を競う必要がある(wood et al, 2020)。 0.53
Digital pollination monitoring systems like that described here, provide much-needed data for understanding the impacts of climate change on insect biodiversity and can ultimately provide a sound basis for conservation. ここで述べたようなデジタル受粉監視システムは、気候変動が昆虫の生物多様性に与える影響を理解する上で非常に必要なデータを提供し、最終的に保存のための健全な基盤を提供する。 0.61
6 Conclusions In this paper, we presented a computer vision facilitated system for spatial monitoring and insect behavioural analysis to underpin agricultural precision pollination. 6つの結論 本稿では,農業用精密受粉の基盤となる空間的モニタリングと昆虫行動分析のためのコンピュータビジョン支援システムを提案する。 0.67
Our system comprised of edge computing-based remote video capture, offline, automated, unmarked multi-species insect tracking, and insect behavioural analysis. 本システムは,エッジコンピューティングによるリモートビデオキャプチャ,オフライン,自動,無印の多種の昆虫追跡,および昆虫行動分析から構成した。 0.73
The system tracked four insect types with F-scores above 0.8 when implemented on a commercial strawberry farm. このシステムは、商業用イチゴ農場で実施された4種類の昆虫のFスコアを0.8以上で追跡した。 0.53
Analysis of the spatial distribution of flower-visiting behaviour of different insect varieties across the farm, allowed for the inference of flower fertilisation, and the comparison of insects’ pollination contribution. 農場内における異なる昆虫の花見行動の空間的分布の解析により、花の受精の推測と、昆虫の受粉貢献の比較が可能となった。 0.83
We determined that 67% of flowers met or exceeded the specified criteria 我々は67%の花が特定の基準を満たすか超えたと決定した。 0.59
英語(論文から抽出)日本語訳スコア
14 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 14 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
for reliable pollination through honeybee visits. ミツバチの訪問による 信頼できる受粉のためです 0.51
However, alternative pollinators were less effective at our study site. しかし, 調査現場では, 代替受粉剤は効果が低かった。 0.64
This advancement of computer vision, spatial monitoring and insect behavioural analysis, provides pollinator data to growers much more rapidly, broadly and deeply than manual observation. コンピュータビジョン、空間モニタリング、昆虫の行動分析の進歩により、受粉者は手動による観察よりも、より速く、広く、深く観察することができる。
訳抜け防止モード: コンピュータビジョン, 空間モニタリング, 昆虫行動分析の進歩 栽培者に対して、手作業による観察よりもはるかに速く、広く、深く、受粉者データを提供する。
0.68
Such rich sources of insect-flower interaction data potentially enable precision pollination and pollinator management for large-scale commercial agriculture. このような昆虫と花の相互作用の豊富なデータは、大規模商業農業における精密な受粉と受粉者の管理を可能にする可能性がある。 0.41
Acknowledgments. The authors would like to thank Sunny Ridge Australia for the opportunity to conduct research at their farm. 認定。 著者らは、彼らの農場で研究を行う機会に、サニーリッジ・オーストラリアに感謝したい。 0.54
Declarations • Funding: Authors were supported by the Australian Research Council Discovery Projects grant DP160100161 and Monash-Bosch AgTech Launchpad primer grant. 声明 • 資金提供: 著者はオーストラリア研究評議会ディスカバリープロジェクトgrant dp160100161とmonash-bosch agtech launchpad primer grantによって支援された。
訳抜け防止モード: 宣言 • 資金提供 : オーストラリア研究評議会による発見プロジェクト助成 dp160100161 の支援 そしてmonash - bosch agtech launchpad primer grant。
0.78
This study was funded by AgriFutures grant PRJ-012993. この研究はAgriFuturesがPRJ-012993に寄付した。 0.58
Amarathunga is supported by ARC Research Hub IH180100002. AmarathungaはARC Research Hub IH180100002によって支援されている。 0.62
• Competing interests: The authors have no competing interests to declare that are relevant to the content of this article. • 競合する利害関係: 著者は、この記事の内容に関係のあることを宣言する競合する利害関係を持たない。 0.67
• Ethics approval: Not applicable • Consent to participate: Not applicable • Consent for publication: Not applicable • Availability of data and materials: The datasets generated during and/or analysed during the current study are available here. • 倫理的承認: 適用されない • 参加の同意: 適用されない • 出版の同意: 適用できない • データと資料の可用性: 現在の研究の間に生成されたデータセットはここで利用可能である。 0.77
Data will be uploaded to a permanent repository and a DOI will be provided upon the acceptance of the manuscript. データは永続的なリポジトリにアップロードされ、原稿の受け入れ時にDOIが提供される。 0.66
• Code availability: Code is available through • コードアベイラビリティ: コードは利用可能である 0.83
• Authors’ github.com/malikarat nayake/Polytrack2.0 •著者 github.com/malikarat nayake/Polytrack2.0 0.33
contributions: Conceptualization: Malika Nisal Ratnayake, Adrian G. Dyer, Alan Dorin; Data curation: Malika Nisal Ratnayake; Formal analysis: Malika Nisal Ratnayake; Funding acquisition: Adrian G. Dyer, Alan Dorin; Investigation: Malika Nisal Ratnayake, Don Chathurika Amarathunga, Asaduz Zaman; Methodology: Malika Nisal Ratnayake, Adrian G. Dyer, Alan Dorin; Project administration: Adrian G. Dyer, Alan Dorin; Resources: Adrian G. Dyer, Alan Dorin; Software: Malika Nisal Ratnayake; Supervision: Adrian G. Dyer, Alan Dorin; Validation: Malika Nisal Ratnayake, contributions: Conceptualization: Malika Nisal Ratnayake, Adrian G. Dyer, Alan Dorin; Data curation: Malika Nisal Ratnayake; Formal analysis: Malika Nisal Ratnayake; Funding acquisition: Adrian G. Dyer, Alan Dorin; Investigation: Malika Nisal Ratnayake, Don Chathurika Amarathunga, Asaduz Zaman; Methodology: Malika Nisal Ratnayake, Adrian G. Dyer, Alan Dorin; Project administration: Adrian G. Dyer, Alan Dorin; Resources: Adrian G. Dyer, Alan Dorin; Software: Malika Nisal Ratnayake; Supervision: Adrian G. Dyer, Alan Dorin; Validation: Malika Nisal Ratnayake,
訳抜け防止モード: 寄稿:概念化 : Malika Nisal Ratnayake, Adrian G. Dyer Alan Dorin ; データキュレーション : Malika Nisal Ratnayake ; Formal Analysis : Malika Nisal Ratnayake ; Funding acquisition : Adrian G. Dyer, アラン・ドリン : マリカ・ニサル・ラトナイヤケ, ドン・チャトゥリカ・アマラトゥンガ Asaduz Zaman, Methodology : Malika Nisal Ratnayake, Adrian G. Dyer アラン・ドリン プロジェクト・マネジメント : Adrian G. Dyer, Alan Dorin ; Resources : Adrian G. Dyer, Alan Dorin ; Software : Malika Nisal Ratnayake ; Supervision : Adrian G. Dyer, Alan Dorin ; Validation : Malika Nisal Ratnayake
0.81
Don Chathurika Amarathunga; Writing – original draft: Malika Nisal Ratnayake; Writing – review & editing: Malika Nisal Ratnayake, Don Chathurika Amarathunga, Asaduz Zaman, Adrian G. Dyer, Alan Dorin. Don Chathurika Amarathunga; write – original draft: Malika Nisal Ratnayake; write – review and editing: Malika Nisal Ratnayake, Don Chathurika Amarathunga, Asaduz Zaman, Adrian G. Dyer, Alan Dorin
訳抜け防止モード: Don Chathurika Amarathunga, write – original draft: Malika Nisal Ratnayake, write – review and editing : Malika Nisal Ratnayake, Don Chathurika Amarathunga, アサドゥーズ・ザマン、エイドリアン・G・ダイアー、アラン・ドリン。
0.85
References Abadi, M., Barham, P., Chen, J., Chen, Z., Davis, A., Dean, J., . . . Zheng, X. (2016). 参考文献 Abadi, M., Barham, P., Chen, J., Chen, Z., Davis, A., Dean, J., . . . Zheng, X. (2016)。 0.75
TensorFlow: A system for large-scale machine learning. TensorFlow: 大規模な機械学習のためのシステム。 0.79
Proceedings of the 12th usenix symposium on operating systems design and implementation, osdi 2016 (pp. 265—283). 第12回OS設計・実装シンポジウム osdi 2016 (pp. 265–283)。
訳抜け防止モード: 第12回usenix symposium on operating systems design and implementationの開催報告 osdi 2016 (p. 265–283) を参照。
0.82
Abdel-Raziq, H.M., Palmer, D.M., Koenig, P.A., Molnar, A.C., Petersen, K.H. (2021). Abdel-Raziq, H.M., Palmer, D.M., Koenig, P.A., Molnar, A.C., Petersen, K.H. (2021)。 0.76
System design for inferring colony-level pollination activity through miniature beemounted sensors. 小型養蜂センサを用いたコロニーレベルの受粉活性推定システムの設計 0.76
Scientific reports, 11 (1), 1–12. 第11期、第1期、第1期、第1期、第12期。 0.21
Afonso, M., Fonteijn, H., Fiorentin, F.S., Lensink, D., Mooij, M., Faber, N., . . . Wehrens, R. (2020). Afonso, M., Fonteijn, H., Fiorentin, F.S., Lensink, D., Mooij, M., Faber, N., . . Wehrens, R. (2020)。 0.43
Tomato fruit detection and counting in greenhouses using deep learning. 深層学習による温室におけるトマト果実の検出と計数 0.79
Frontiers in plant science, 11 , 1759. 植物学のフロンティアたち、1759年、11歳。 0.52
Aizen, M.A., Garibaldi, L.A., Cunningham, S.A., Klein, A.M. (2009). Aizen, M.A., Garibaldi, L.A., Cunningham, S.A., Klein, A.M. (2009)。 0.79
How much does agriculture depend on pollinators? 農業は受粉者に依存していますか。 0.59
lessons from long-term trends in crop production. 作物生産の長期的傾向から学ぶ。 0.72
Annals of botany, 103 (9), 1579–1588. 植物誌 103 (9), 1579–1588。 0.30
Amarathunga, D.C.K., Grundy, J., Parry, H., Dorin, A. insect image capture and classification: A systematic literature review. Amarathunga, D.C.K., Grundy, J., Parry, H., Dorin, A. insect image capture and classification: A systematic literature review 0.48
Smart Agricultural Technology, 100023. スマート農業技術、100023年。 0.75
(2021). Methods of (2021). 方法 0.33
Aslanpour, M.S., Toosi, A.N., Cicconetti, C., Javadi, B., Sbarski, P., Taibi, D., . . . Dustdar, S. (2021). Aslanpour, M.S., Toosi, A.N., Cicconetti, C., Javadi, B., Sbarski, P., Taibi, D., . . . Dustdar, S. (2021)。
訳抜け防止モード: Aslanpour, M.S., Toosi, A.N., Cicconetti, C. Javadi, B., Sbarski, P., Taibi, D., ダストダー (2021年)。
0.80
Serverless edge computing: vision and challenges. サーバレスエッジコンピューティング: ビジョンと課題。 0.49
2021 australasian computer science week multiconference (pp. 1–10). 2021 Australasian Computer Science Week Multiconference (pp. 1-10)。 0.43
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
15 Barreiros, M.d.O., Dantas, D.d.O., 15 Barreiros, M.d.O., Dantas, D.d.O., 0.37
Silva, L.C.d.O., Ribeiro, S., Barros, A.K. (2021). Silva, L.C.d.O., Ribeiro, S., Barros, A.K. (2021)。 0.77
Zebrafish tracking using yolov2 and kalman filter. yolov2とkalmanフィルタを用いたゼブラフィッシュ追跡 0.64
Scientific reports, 11 (1), 1–14. 第11巻、1-14頁。 0.24
Batsleer, F., Bonte, D., Dekeukeleire, D., Goossens, S., Poelmans, W., Van der Cruyssen, E., . . . Vandegehuchte, M.L. (2020). Batsleer, F., Bonte, D., Dekeukeleire, D., Goossens, S., Poelmans, W., Van der Cruyssen, E., . . . Vandegehuchte, M.L. (2020)。 0.44
The neglected impact of tracking devices on terrestrial arthropods. 追跡装置が地上の節足動物に与える影響の無視。 0.67
Methods in Ecology and Evolution, 11 (3), 350–361. 生態と進化の方法、11 (3), 350–361。 0.71
Bjerge, K., Mann, H.M., Høye, T.T. (2021). Bjerge, K., Mann, H.M., Høye, T.T. (2021)。 0.92
Realtime insect tracking and monitoring with computer vision and deep learning. コンピュータビジョンとディープラーニングによるリアルタイム昆虫追跡とモニタリング。 0.80
Remote Sensing in Ecology and Conservation. 生態と保全におけるリモートセンシング。 0.68
Bjerge, K., Nielsen, J.B., Sepstrup, M.V., HelsingNielsen, F., Høye, T.T. (2021). Bjerge, K., Nielsen, J.B., Sepstrup, M.V., HelsingNielsen, F., Høye, T.T. (2021)。 0.46
An automated light trap to monitor moths (lepidoptera) using computer vision-based tracking and deep learning. コンピュータビジョンに基づくトラッキングとディープラーニングを用いて、昆虫(レピドプテリウム)を監視できる自動光トラップ。 0.67
Sensors, 21 (2), 343. センサー,21(2),343。 0.65
Chagnon, M., Gingras, J., De Oliveira, D. (1989). Chagnon, M., Gingras, J., De Oliveira, D. (1989)。 0.88
Effect of honey bee (hymenoptera: Apidae) visits on the pollination rate of strawberries. ミツバチがイチゴの受粉速度に及ぼす影響 0.29
Journal of Economic Entomology, 82 (5), 1350–1353. journal of economic entomology, 82 (5), 1350–1353 を参照。 0.84
Dennis, R., Shreeve, T., Isaac, N., Roy, D., Hardy, P., Fox, R., Asher, J. (2006). Dennis, R., Shreeve, T., Isaac, N., Roy, D., Hardy, P., Fox, R., Asher, J. (2006)。 0.84
The effects of visual apparency on bias in butterfly recording and monitoring. バタフライ記録・監視における視力がバイアスに及ぼす影響 0.64
Biological conservation, 128 (4), 486–492. 生物保護、128 (4),486-492。 0.72
FAO (2018). FAO (2018)。 0.81
Why bees matter; the importance of bees and other pollinators for food and agriculture. なぜミツバチが重要なのか。食物や農業におけるミツバチやその他の受粉者の重要性。 0.53
Fijen, T.P., Scheper, J.A., Boom, T.M., Janssen, N., Raemakers, I., Kleijn, D. (2018). Fijen, T.P., Scheper, J.A., Boom, T.M., Janssen, N., Raemakers, I., Kleijn, D. (2018)。 0.47
Insect pollination is at least as important for marketable crop yield as plant quality in a seed crop. 昆虫の受粉は、少なくとも種子作物の植物品質と同じくらい市場に出る作物にとって重要である。 0.60
Ecology letters, 21 (11), 1704–1713. Ecology letter, 21 (11), 1704–1713。 0.43
Bochkovskiy, A., Wang, C. Bochkovskiy, A., Wang, C。 0.82
-Y. , Liao, H. -y。 , Liao, H。 0.39
-Y.M. (2020). -2020年(平成20年)。 0.66
Yolov4: Optimal speed and accuracy of object detection. yolov4: オブジェクト検出の最適な速度と精度。 0.92
arXiv preprint arXiv:2004.10934 . arXiv preprint arXiv:2004.10934 0.34
Food & Agriculture Organization of the United Nation (2019). 国連食糧農業機関(2019年)。 0.44
Global action on pollination services for sustainable agriculture. 持続可能な農業のための受粉サービスへのグローバルな取り組み。 0.60
Branson, K., Robie, A.A., Bender, J., Perona, P., Dickinson, M.H. (2009). Branson, K., Robie, A.A., Bender, J., Perona, P., Dickinson, M.H. (2009)。 0.97
High-throughput ethomics in large groups of drosophila. ショウジョウバエの大群における高スループットエソミクス 0.57
Nature methods, 6 (6), 451–457. 自然法では6 (6), 451–457。 0.81
Breeze, T.D., Bailey, A.P., Balcombe, K.G., Brereton, T., Comont, R., Edwards, M., . . . others (2021). Breeze, T.D., Bailey, A.P., Balcombe, K.G., Brereton, T., Comont, R., Edwards, M., . . etc. (2021)。 0.97
Pollinator monitoring more than pays for itself. ポリネーターは支払いよりも多く監視する。 0.58
Journal of Applied Ecology, 58 (1), 44–57. journal of applied ecology, 58 (1), 44-57を参照。 0.81
Campbell, J., Mummert, L., Sukthankar, R. (2008). Campbell, J., Mummert, L., Sukthankar, R. (2008)。 0.88
Video monitoring of honey bee colonies at the hive entrance. 蜂巣口におけるミツバチコロニーの映像モニタリング 0.54
Visual observation & analysis of animal & insect behavior, ICPR, 8 , 1—4. 動物と昆虫の行動の視覚的観察と解析, icpr, 8 , 1 − 4。 0.80
Garibaldi, L.A., Carvalheiro, L.G., Vaissi`ere, B.E., Gemmill-Herren, B., Hip´olito, J., Freitas, B.M., . . . others (2016). Garibaldi, L.A., Carvalheiro, L.G., Vaissi`ere, B.E., Gemmill-Herren, B., Hip ́olito, J。
訳抜け防止モード: Garibaldi, L.A., Carvalheiro, L.G., Vaissi`ere, B.E. Gemmill - Herren, B., Hip ́olito, J., Freitas B.M.他(2016年)。
0.84
Mutually beneficial pollinator diversity and crop yield outcomes in small and large farms. 小規模・大規模農場における有益な受粉者の多様性と収量 0.64
Science, 351 (6271), 388–391. 科学、351 (6271), 388–391。 0.86
Garibaldi, L.A., Requier, F., Rollin, O., Andersson, G.K.S. (2017). Garibaldi, L.A., Requier, F., Rollin, O., Andersson, G.K.S. (2017)。 0.90
Towards an integrated species and habitat management of crop pollination. 作物の受粉の総合化と生息地管理に向けて 0.58
Current opinion in insect science, 21 , 105—114. 昆虫学における最近の見解, 21, 105–114。 0.55
英語(論文から抽出)日本語訳スコア
16 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 16 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
Garibaldi, L.A., S´aez, A., Aizen, M.A., Fijen, T., Bartomeus, I. (2020). Garibaldi, L.A., S ́aez, A., Aizen, M.A., Fijen, T., Bartomeus, I. (2020)。 0.46
Crop pollination management needs flower-visitor monitoring and target values. 作物の受粉管理には花見人によるモニタリングと目標値が必要である。 0.48
Journal of Applied Ecology, 57 (4), 664–670. Journal of Applied Ecology, 57 (4), 664-670。 0.43
Goscinski, W.J., McIntosh, P., Felzmann, U.C., Maksimenko, A., Hall, C.J., Gureyev, T., . . . others (2014). Goscinski, W.J., McIntosh, P., Felzmann, U.C., Maksimenko, A., Hall, C.J., Gureyev, T。
訳抜け防止モード: Goscinski, W.J., McIntosh, P., Felzmann, U.C. Maksimenko, A., Hall, C.J., Gureyev, T. . others ( 2014 ) .
0.45
The multi-modal australian sciences imaging and visualization environment (massive) high performance computing infrastructure: applications in neuroscience and neuroinformatics research. マルチモーダル・オーストラリアン・サイエンス・イメージングと可視化環境(大規模)高性能コンピューティング・インフラストラクチャー:神経科学と神経情報学の研究への応用。 0.66
Frontiers in Neuroinformatics, 8 , 30. 神経情報学のフロンティア 8 , 30。 0.67
Haalck, L., Mangan, M., Webb, B., Risse, B. (2020). Haalck, L., Mangan, M., Webb, B., Risse, B. (2020)。 0.83
Towards image-based animal tracking in natural environments using a freely moving camera. 自由移動カメラを用いた自然環境における画像に基づく動物追跡 0.80
Journal of neuroscience methods, 330 , 108455. 神経科学雑誌 330 , 108455。 0.50
Hall, M.A., Jones, J., Rocchetti, M., Wright, D., Rader, R. Bee visitation and fruit quality in berries under protected cropping vary along the length of polytunnels. hall, m.a., jones, j., rocchetti, m., wright, d., rader, r. bee visitation and fruit quality in berrypping under protected cropping ポリトンネルの長さによって異なる。 0.79
Journal of Economic Entomology, 113 (3), 1337–1346. journal of economic entomology, 113 (3), 1337–1346 を参照。 0.85
(2020). Hallmann, C.A., Sorg, M., Jongejans, E., Siepel, H., Hofland, N., Schwan, H., . . . others (2017). (2020). Hallmann, C.A., Sorg, M., Jongejans, E., Siepel, H., Hofland, N., Schwan, H。 0.54
More than 75 percent decline over 27 years in total flying insect biomass in protected areas. 保護区では27年間で75%以上の減少が確認された。 0.51
PloS one, 12 (10), e0185809. PloS 1, 12 (10), e0185809。 0.34
Howard, S.R., Nisal Ratnayake, M., Dyer, A.G., Garcia, J.E., Dorin, A. (2021). Howard, S.R., Nisal Ratnayake, M., Dyer, A.G., Garcia, J.E., Dorin, A. (2021)。 0.91
Towards precision apiculture: Traditional and technological insect monitoring methods in strawberry and raspberry crop polytunnels tell different pollination stories. 精密api培養に向けて:イチゴとラズベリーポリトンネルにおける伝統的および技術的昆虫モニタリング手法は、異なる受粉ストーリーを語る。 0.68
Plos one, 16 (5), e0251572. plos 1, 16 (5), e0251572 である。 0.78
the National Academy of Sciences, 118 (2). 国立科学アカデミー、第118回(第2回)。 0.67
Jolles, J.W. (2021). jolles, j.w. (2021)。 0.66
Broad-scale applications of the raspberry pi: A review and guide for biologists. raspberry piの広範な応用 : 生物学者のためのレビューとガイド 0.81
Methods in Ecology and Evolution, 12 (9), 1562–1579. 生態と進化の方法、12 (9), 1562–1579。 0.70
Kamilaris, A., & Prenafeta-Bold´u, F.X. Kamilaris, A. & Prenafeta-Bold ́u, F.X 0.37
(2018). Deep learning in agriculture: A survey. (2018). 農業における深い学習: 調査。 0.64
Computers and electronics in agriculture, 147 , 70–90. 農業におけるコンピュータと電子機器, 147 , 70-90。 0.71
Kevan, P.G. (1975). kevan, p.g. (1975)。 0.43
Sun-tracking solar furnaces in high arctic flowers: significance for pollination and insects. 高北極花における太陽追尾型太陽炉 : 受粉と昆虫にとっての意義 0.64
Science, 189 (4204), 723–726. 189年(4204年)、723-726年。 0.53
Kirkeby, C., Rydhmer, K., Cook, S.M., Strand, A., Torrance, M.T., Swain, J.L., . . . others (2021). kirkeby, c., rydhmer, k., cook, s.m., strand, a., torrance, m.t., swain, j.l., . . . other (2021)
訳抜け防止モード: Kirkeby, C., Rydhmer, K., Cook, S.M. Strand, A., Torrance, M.T., Swain, J.L., 他(2021年)。
0.88
Advances in automatic identification of flying insects using optical sensors and machine learning. 光センサと機械学習を用いた空飛ぶ昆虫の自動識別技術の進歩 0.79
Scientific reports, 11 (1), 1–8. 論文は11-1-1。 0.35
Koirala, A., Walsh, K.B., Wang, Z., McCarthy, C. (2019). Koirala, A., Walsh, K.B., Wang, Z., McCarthy, C. (2019)。 0.95
Deep learning–method overview and review of use for fruit detection and yield estimation. 果実検出・収量推定における深層学習法の概要と利用の見直し 0.77
Computers and electronics in agriculture, 162 , 219–234. 農業におけるコンピュータと電子機器, 162 , 219–234。 0.76
Kuhn, H.W. (1955). クーン h.w. (1955). 0.52
The hungarian method for the assignment problem. 割り当て問題に対するハンガリーの方法。 0.51
Naval research logistics quarterly, 2 (1-2), 83–97. 海軍研究ロジスティクス 四半期2 (1-2), 83-97。 0.73
Lu, H., Fu, X., Liu, C., Li, L. Lu,H.,Fu,X.,Liu,C.,L i,L. 0.38
-g. , He, Y. -g。 , He, Y。 0.40
-x. , Li, N. -x。 , Li, N。 0.41
-w. (2017). -w。 (2017). 0.42
Cultivated land information extraction in uav imagery based on deep convolutional neural network and transfer learning. 深層畳み込みニューラルネットワークとトランスファー学習に基づくuav画像における耕作地情報抽出 0.75
Journal of Mountain Science, 14 (4), 731–741. Journal of Mountain Science, 14 (4), 731–741。 0.88
Høye, T.T., ¨Arje, J., Bjerge, K., Hansen, O.L., Iosifidis, A., Leese, F., . . . Raitoharju, J. (2021). Høye, T.T., .Arje, J., Bjerge, K., Hansen, O.L., Iosifidis, A., Leese, F., . . . Raitoharju, J. (2021)。
訳抜け防止モード: Høye, T.T., .Arje, J., Bjerge, K. Hansen, O.L., Iosifidis, A., Leese, F., ライトハルジュ(2021年)。
0.74
Deep learning and computer vision will transform entomology. 深層学習とコンピュータビジョンは昆虫学を変える。 0.78
Proceedings of MacInnis, G., & Forrest, J.R. 経過 MacInnis, G., & Forrest, J.R. 0.40
(2019). Pollination by wild bees yields larger strawberries than pollination by honey bees. (2019). ミツバチによる受粉はミツバチによる受粉よりもイチゴの方が大きい。 0.49
Journal of 日誌 0.45
英語(論文から抽出)日本語訳スコア
Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.80
17 Applied Ecology, 56 (4), 824–832. 17 応用生態学 56 (4), 824–832。 0.59
conference on computer vision and pattern recognition (pp. 2921–2930). コンピュータビジョンとパターン認識に関するカンファレンス (pp.2921-2930)。 0.76
Magnier, B., Gabbay, E., Bougamale, F., Moradi, B., Pfister, F., Slangen, P. (2019). Magnier, B., Gabbay, E., Bougamale, F., Moradi, B., Pfister, F., Slangen, P. (2019)。 0.44
Multiple honey bees tracking and trajectory modeling. 複数のミツバチの追跡と軌道モデリング。 0.65
Multimodal sensing: Technologies and applications (Vol. 11059, p. 110590Z). マルチモーダルセンシング:技術と応用 (vol. 11059, p. 110590z)。 0.81
Odemer, R. (2022). オデマー、r. (2022)。 0.68
Approaches, challenges and recent advances in automated bee counting devices: A review. 自動ミツバチ計数装置のアプローチ,課題,最近の進歩:レビュー 0.59
Annals of Applied Biology, 180 (1), 73–89. Annals of Applied Biology, 180 (1), 73–89。 0.44
O’Grady, M., Langton, D., O’Hare, G. O’Grady, M., Langton, D., O’Hare, G 0.39
(2019). Edge computing: A tractable model for smart agriculture? (2019). エッジコンピューティング:スマート農業に適したモデル? 0.56
Artificial Intelligence in Agriculture, 3 , 42–51. 農業における人工知能、42-51。 0.63
Outhwaite, C., McCann, P., Newbold, T. (2022). Outhwaite, C., McCann, P., Newbold, T. (2022)。 0.88
Agriculture and climate change reshape insect biodiversity worldwide. 農業と気候変動は世界中の昆虫の生物多様性を形作る。 0.55
Nature. P´erez-Escudero, A., Vicente-Page, J., Hinz, R.C., (2014). 自然だ P ́erez-Escudero, A., Vicente-Page, J., Hinz, R.C. (2014)。 0.71
Arganda, S., De Polavieja, G.G. idtracker: tracking individuals in a group by automatic identification of unmarked animals. Arganda, S., De Polavieja, G.G. idtracker: マークされていない動物の自動識別によってグループ内の個人を追跡する。 0.73
Nature methods, 11 (7), 743–748. 自然法、11(7)、733-748。 0.37
Potts, S.G., Imperatriz-Fonseca, V., Ngo, H.T., Aizen, M.A., Biesmeijer, J.C., Breeze, T.D., . . . others (2016). Potts, S.G., Imperatriz-Fonseca, V., Ngo, H.T., Aizen, M.A., Biesmeijer, J.C., Breeze, T.D.,
訳抜け防止モード: Potts, S.G., Imperatriz - Fonseca, V., Ngo H.T., Aizen, M.A., Biesmeijer, J.C., Breeze T.D.、他(2016年)。
0.82
Safeguarding pollinators and their values to human well-being. 受粉者の保護と人間の幸福への価値 0.61
Nature, 540 (7632), 220–229. 540(7632)、220-229。 0.50
Rader, R., Bartomeus, I., Garibaldi, L.A., Garratt, M.P., Howlett, B.G., Winfree, R., . . . others (2016). Rader, R., Bartomeus, I., Garibaldi, L.A., Garratt, M.P., Howlett, B.G., Winfree, R。
訳抜け防止モード: Rader, R., Bartomeus, I., Garibaldi, L.A. Garratt, M.P., Howlett, B.G., Winfree, R.,... 他(2016年)。
0.88
Non-bee insects are important contributors to global crop pollination. 非ハチ昆虫は世界の作物の受粉に重要な貢献をしている。 0.50
Proceedings of the National Academy of Sciences, 113 (1), 146–151. 国立科学アカデミー紀要, 113(1), 146–151。 0.58
Ratnayake, M.N., Dyer, A.G., Dorin, A. (2021b). Ratnayake, M.N., Dyer, A.G., Dorin, A. (2021b)。 0.43
Tracking among wildflower clusters with computer visionfacilitated pollinator monitoring. computer visionfacilitated pollinator monitoringによる野生花群間の追跡 0.79
Plos one, 16 (2), e0239504. plos 1, 16 (2), e0239504。 0.71
honeybees individual Real, L. (2012). ミツバチ 個人 l. (2012)。 0.47
Pollination biology. Elsevier. 受粉生物学。 Elsevier 0.30
Redmon, J., & Farhadi, A. (2017). Redmon, J., & Farhadi, A. (2017)。 0.83
Yolo9000: better, faster, stronger. Yolo9000: より良く、より速く、より強く。 0.75
Proceedings of the ieee conference on computer vision and pattern recognition (pp. 7263–7271). コンピュータビジョンとパターン認識に関する会見(pp. 7263-7271)の成果。 0.69
Rollin, O., & Garibaldi, L.A. Rollin, O., & Garibaldi, L.A. 0.49
Impacts of honeybee density on crop yield: A metaanalysis. ミツバチの密度が収量に及ぼす影響:メタアナリシス 0.67
Journal of Applied Ecology, 56 (5), 1152—1163. Journal of Applied Ecology, 56 (5), 1152– 1163。 0.44
(2019). Schweiger, O., Biesmeijer, J.C., Bommarco, R., Hickler, T., Hulme, P.E., Klotz, S., . . . others (2010). (2019). Schweiger, O., Biesmeijer, J.C., Bommarco, R., Hickler, T., Hulme, P.E., Klotz, S。
訳抜け防止モード: (2019). Schweiger, O., Biesmeijer, J.C., Bommarco, R. Hickler, T., Hulme, P.E., Klotz, S., 2010年)など。
0.63
Multiple stressors on biotic interactions: how climate change and alien species interact to affect pollination. 生物の相互作用に関する複数のストレス要因:気候変動と外来種との相互作用が受粉に影響を与える。 0.65
Biological Reviews, 85 (4), 777–795. 生物学的評価、85 (4)、777-795。 0.35
Sekachev, B., Manovich, N., Zhavoronkov, Computer vision anno(GitHub: Sekachev, B., Manovich, N., Zhavoronkov, Computer Vision anno(GitHub: 0.42
A. tation https://github.com/o pencv/cvat) 10.5281/zenodo.34971 06 A. tation https://github.com/o pencv/cvat) 10.5281/zenodo.34971 06 0.20
Zenodo. (2019). Zenodo (2019). 0.34
tool. Settele, J., Bishop, J., Potts, S.G. ツール。 Settele, J., Bishop, J., Potts, S.G. 0.63
(2016). Climate change impacts on pollination. (2016). 気候変動は受粉に影響する。 0.56
Nature Plants, 2 (7), 1–3. 植物は2(7)、1-3。 0.62
Simons, D.J., & Chabris, C.F. (1999). Simons, D.J., & Chabris, C.F. (1999)。 0.90
Gorillas in our midst: Sustained inattentional blindness for dynamic events. 私たちの中のゴリラ:ダイナミックなイベントに対する不注意な盲目。 0.63
perception, 28 (9), 1059– 1074. 知覚は28 (9), 1059–1074。 0.34
Ratnayake, M.N., Dyer, A.G., Dorin, A. (2021a). Ratnayake, M.N., Dyer, A.G., Dorin, A. (2021a)。 0.43
Towards computer vision and deep learning facilitated pollination monitoring for agriculture. コンピュータビジョンと深層学習に向けて、農業における受粉監視が促進された。 0.57
the ieee/cvf Proceedings of ieee/cvf 経過 0.35
Spaethe, J., Tautz, J., Chittka, L. Spaethe, J., Tautz, J., Chittka, L。 0.83
(2001). Visual constraints in foraging bumblebees: flower size and color affect search time and flight behavior. (2001). 花の大きさと色は、探索時間と飛行行動に影響を及ぼす。 0.53
Proceedings of the National 国の手続 0.41
英語(論文から抽出)日本語訳スコア
18 Spatial Monitoring and Insect Behavioural Analysis Using Computer Vision for Precision Pollination 18 精密受粉のためのコンピュータビジョンを用いた空間モニタリングと昆虫行動解析 0.61
Yang, C., Collins, J., Beckerleg, M. Yang, C., Collins, J., Beckerleg, M 0.38
(2018). A model for pollen measurement using video monitoring of honey bees. (2018). ミツバチのビデオ監視を用いた花粉計測モデル 0.46
Sensing and Imaging, 19 (1), 1–29. センシングとイメージング、19(1)、1-29。 0.80
Zivkovic, Z., & Van Der Heijden, F. (2006). Zivkovic, Z., & Van Der Heijden, F. (2006)。 0.86
Efficient adaptive density estimation per image pixel for the task of background subtraction. 背景抽出作業における画像画素ごとの適応密度推定の効率化 0.81
Pattern recognition letters, 27 (7), 773–780. パターン認識文字 27 (7), 773-780。 0.76
Academy of Sciences, 98 (7), 3898–3903. Academy of Sciences, 98 (7), 3898–3903。 0.44
Spencer, E.E., Barton, P.S., Ripple, W.J., Newsome, T.M. (2020). Spencer, E.E., Barton, P.S., Ripple, W.J., Newsome, T.M. (2020)。 0.84
Invasive european wasps alter scavenging dynamics around carrion. ヨーロッパ大陸のスズメバチは、カリオンの周囲に散在するダイナミクスを変化させる。 0.35
Food Webs, 24 , e00144. フード・ウェブ、24歳、e00144歳。 0.52
Stojni´c, V., Risojevi´c, V., Muˇstra, M., Jovanovi´c, V., Filipi, J., Kezi´c, N., Babi´c, Z. (2021). Stojni ́c, V., Risojevi ́c, V., Mu'stra, M., Jovanovi ́c, V., Filipi, J., Kezi ́c, N., Babi ́c, Z. (2021)。
訳抜け防止モード: Stojni (三人称単数 現在形 Stojnis, 現在分詞 Stojni, 過去形および過去分詞形 Stojni) Jovanovi ́c, V., Filipi, J., Kezi ́c, N. Babi ́c , Z. (2021)。
0.53
A method for detection of small moving objects in uav videos. uavビデオにおける小型移動物体の検出法 0.66
Remote Sensing, 13 (4), 653. リモートセンシング,13(4),653。 0.63
Su, D., Kong, H., Qiao, Y., Sukkarieh, S. (2021). Su, D., Kong, H., Qiao, Y., Sukkarieh, S. (2021)。 0.43
Data augmentation for deep learning based semantic segmentation and crop-weed classification in agricultural robotics. 農業ロボットにおける深層学習に基づくセマンティックセグメンテーションと雑草分類のためのデータ強化 0.80
Computers and Electronics in Agriculture, 190 , 106418. 農業におけるコンピュータと電子工学 190 , 106418。 0.84
Vanbergen, A.J., & Initiative, t.I.P. Vanbergen, A.J., & Initiative, t.I.P. 0.37
(2013). Threats to an ecosystem service: pressures on pollinators. (2013). 生態系への脅威:受粉者への圧力。 0.59
Frontiers in Ecology and the Environment, 11 (5), 251–259. 生態学と環境学のフロンティア、11 (5)、251-259。 0.72
van der Kooi, C.J., Kevan, P.G., Koski, M.H. (2019). van der Kooi, C.J., Kevan, P.G., Koski, M.H. (2019)。 0.42
The thermal ecology of flowers. Annals of Botany, 124 (3), 343–353. 花の熱生態学。 植物誌 124 (3), 343–353。 0.29
Walter, T., & Couzin, I.D. (2021). Walter, T., & Couzin, I.D. (2021)。 0.93
Trex, a fast multi-animal tracking system with markerless identification, and 2d estimation of posture and visual fields. trexは、マーカーレス識別と姿勢と視野の2次元推定を備えた高速多動物追跡システムである。 0.64
eLife, 10 , e64000. eLife, 10 , e64000。 0.93
Wang, S., Liu, W., Wu, J., Cao, L., Meng, Q., Kennedy, P.J. (2016). Wang, S., Liu, W., Wu, J., Cao, L., Meng, Q., Kennedy, P.J. (2016)。 0.90
Training deep neural networks on imbalanced data sets. 不均衡データセットによるディープニューラルネットワークのトレーニング。 0.75
2016 international joint conference on neural networks (ijcnn) (pp. 4368–4374). 2016 international joint conference on neural networks (ijcnn) (pp. 4368-4374)。 0.44
Wood, T.J., Michez, D., Paxton, R.J., Drossart, M., Neumann, P., Gerard, M., . . . others (2020). Wood, T.J., Michez, D., Paxton, R.J., Drossart, M., Neumann, P., Gerard, M., . . others (2020)。 0.91
Managed honey bees as a radar for wild bee decline? 野生のミツバチの減退のレーダーとして管理されたミツバチ? 0.51
Apidologie, 51 (6), 1100–1116. アピドロジー、51 (6)、1100–1116。 0.68
                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。