論文の概要: Dise\~no y desarrollo de aplicaci\'on m\'ovil para la clasificaci\'on de
flora nativa chilena utilizando redes neuronales convolucionales
- arxiv url: http://arxiv.org/abs/2106.06592v1
- Date: Fri, 11 Jun 2021 19:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:06:31.578549
- Title: Dise\~no y desarrollo de aplicaci\'on m\'ovil para la clasificaci\'on de
flora nativa chilena utilizando redes neuronales convolucionales
- Title(参考訳): 神経回路のリフレッシュを応用した植物性ナティヴァ・チリナの細胞機能解析
- Authors: Ignacio Mu\~noz, Alfredo Bolt
- Abstract要約: 本研究は,モバイルアプリに実装されたキリアン種データセットと最適化された分類モデルの開発を紹介する。
データセットは、フィールドで捕獲されたいくつかの種の写真をまとめ、オンラインで利用可能な他のデータセットから利用可能ないくつかの写真を選択することで構築された。
最良のモデルはモバイルアプリ上で実装され、テストセットに対して95%正確な予測率を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Introduction: Mobile apps, through artificial vision, are capable of
recognizing vegetable species in real time. However, the existing species
recognition apps do not take in consideration the wide variety of endemic and
native (Chilean) species, which leads to wrong species predictions. This study
introduces the development of a chilean species dataset and an optimized
classification model implemented to a mobile app. Method: the data set was
built by putting together pictures of several species captured on the field and
by selecting some pictures available from other datasets available online.
Convolutional neural networks were used in order to develop the images
prediction models. The networks were trained by performing a sensitivity
analysis, validating with k-fold cross validation and performing tests with
different hyper-parameters, optimizers, convolutional layers, and learning
rates in order to identify and choose the best models and then put them
together in one classification model. Results: The final data set was
compounded by 46 species, including native species, endemic and exotic from
Chile, with 6120 training pictures and 655 testing pictures. The best models
were implemented on a mobile app, obtaining a 95% correct prediction rate with
respect to the set of tests. Conclusion: The app developed in this study is
capable of classifying species with a high level of accuracy, depending on the
state of the art of the artificial vision and it can also show relevant
information related to the classified species.
- Abstract(参考訳): 紹介: モバイルアプリは、人工視覚を通じて、リアルタイムで植物種を認識することができる。
しかし、既存の種認識アプリは、様々な固有種や固有種(チリ)を考慮に入れておらず、誤った種予測につながっている。
本研究では,モバイルアプリに最適化された分類モデルとキリアン種データセットの開発を紹介する。
方法:データセットは、フィールドで捕獲されたいくつかの種の写真をまとめ、オンラインで利用可能な他のデータセットから利用可能な画像を選択することで構築された。
画像予測モデルを開発するために畳み込みニューラルネットワークが用いられた。
ネットワークは、感度分析を行い、k-foldクロス検証を行い、異なるハイパーパラメータ、オプティマイザ、畳み込み層、学習率でテストを行い、最良のモデルを識別し、選択し、それらを1つの分類モデルにまとめる。
結果: 最終データセットは,チリの固有種,固有種,外来種を含む46種に複合され,6120枚のトレーニング写真と655枚のテスト写真が得られた。
最良のモデルはモバイルアプリ上で実装され、テストセットに対して95%正確な予測率を得た。
結論: 本研究で開発されたアプリは, 人工視覚の技法の状況に応じて, 高い精度で種を分類することができるとともに, 分類された種に関する関連情報も表示できる。
関連論文リスト
- Low Cost Machine Vision for Insect Classification [33.7054351451505]
本稿では,低コストでスケーラブルなオープンソースシステムとして開発されたマルチセンサシステムの一部として,イメージング手法を提案する。
このシステムは、同じ昆虫種16種と異なる属、家系、順序からなるデータセットで、例に評価される。
種間類似度の高い種を分類するためには,昆虫のイメージトリミングが必要であることが証明された。
論文 参考訳(メタデータ) (2024-04-26T15:43:24Z) - LD-SDM: Language-Driven Hierarchical Species Distribution Modeling [9.620416509546471]
我々は,世界規模の存在のみのデータを用いた種分布モデリングの問題に焦点をあてる。
種間の強い暗黙の関係を捉えるため,大きな言語モデルを用いて,種の分類学的階層を符号化した。
そこで本研究では,種分布モデルの評価が可能な近接認識評価指標を提案する。
論文 参考訳(メタデータ) (2023-12-13T18:11:37Z) - Species196: A One-Million Semi-supervised Dataset for Fine-grained
Species Recognition [30.327642724046903]
種196(英: species 196)は、196科の外来種の大規模な半教師付きデータセットである。
専門家レベルの正確なアノテーションである種196-Lと、侵入種196-Uの1.2M以上のラベルのない画像を集めている。
論文 参考訳(メタデータ) (2023-09-25T14:46:01Z) - Spatial Implicit Neural Representations for Global-Scale Species Mapping [72.92028508757281]
ある種が観察された場所の集合を考えると、その種がどこにいても存在しないかを予測するためのモデルを構築することが目的である。
従来の手法は、新たな大規模クラウドソースデータセットを活用するのに苦労している。
本研究では,47k種の地理的範囲を同時に推定するために,空間入射ニューラル表現(SINR)を用いる。
論文 参考訳(メタデータ) (2023-06-05T03:36:01Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Classification of Seeds using Domain Randomization on Self-Supervised
Learning Frameworks [0.0]
鍵となるボトルネックは、畳み込みニューラルネットワーク(CNN)をトレーニングする大量のラベル付きデータの必要性である。
この研究は、これを達成するために、コントラスト学習とドメインランダム化の概念を活用している。
実世界の画像の表象的サンプル作物から生成された合成画像の使用は、大量のテスト対象の必要性を軽減する。
論文 参考訳(メタデータ) (2021-03-29T12:50:06Z) - Deep Low-Shot Learning for Biological Image Classification and
Visualization from Limited Training Samples [52.549928980694695]
In situ hybridization (ISH) gene expression pattern image from the same developmental stage。
正確な段階のトレーニングデータをラベル付けするのは、生物学者にとっても非常に時間がかかる。
限られた訓練画像を用いてISH画像を正確に分類する2段階の低ショット学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T06:06:06Z) - Two-View Fine-grained Classification of Plant Species [66.75915278733197]
本研究では,2視点の葉のイメージ表現に基づく新しい手法と,植物種の粒度認識のための階層的分類戦略を提案する。
シームズ畳み込みニューラルネットワークに基づく深度測定は、多数のトレーニングサンプルへの依存を減らし、新しい植物種に拡張性を持たせるために用いられる。
論文 参考訳(メタデータ) (2020-05-18T21:57:47Z) - Scalable learning for bridging the species gap in image-based plant
phenotyping [2.208242292882514]
ディープラーニング(データ収集、注釈付け、トレーニング)を適用する従来のパラダイムは、イメージベースの植物表現には適用できない。
データコストには、物理的サンプルの育成、イメージングとラベル付けが含まれる。
モデル性能は、各植物種のドメイン間の種間ギャップによって影響を受ける。
論文 参考訳(メタデータ) (2020-03-24T10:26:40Z) - Deformation-aware Unpaired Image Translation for Pose Estimation on
Laboratory Animals [56.65062746564091]
我々は,神経回路が行動をどのようにオーケストレーションするかを研究するために,手動による監督を使わずに,神経科学モデル生物のポーズを捉えることを目的としている。
我々の重要な貢献は、未完成の画像翻訳フレームワークにおける外観、形状、ポーズの明示的で独立したモデリングである。
ショウジョウバエ(ハエ)、線虫(線虫)、ダニオ・レリオ(ゼブラフィッシュ)のポーズ推定精度の向上を実証した。
論文 参考訳(メタデータ) (2020-01-23T15:34:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。