論文の概要: Detection of trade in products derived from threatened species using machine learning and a smartphone
- arxiv url: http://arxiv.org/abs/2509.06585v1
- Date: Mon, 08 Sep 2025 11:56:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.104414
- Title: Detection of trade in products derived from threatened species using machine learning and a smartphone
- Title(参考訳): マシンラーニングとスマートフォンを用いた絶滅危惧種由来の商品取引の検出
- Authors: Ritwik Kulkarni, WU Hanqin, Enrico Di Minin,
- Abstract要約: 野生生物における持続不可能な貿易は、生物多様性にとって大きな脅威であり、現在ではデジタル市場やソーシャルメディアでますます普及している。
我々は、画像内の野生動物を識別し、ハイライトできる機械学習に基づく物体認識モデルを開発した。
このアプリケーションはリアルタイムで画像をクリックし、標的種の潜在的に禁止された製品を特定するのに役立つ。
- 参考スコア(独自算出の注目度): 0.16385815610837165
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Unsustainable trade in wildlife is a major threat to biodiversity and is now increasingly prevalent in digital marketplaces and social media. With the sheer volume of digital content, the need for automated methods to detect wildlife trade listings is growing. These methods are especially needed for the automatic identification of wildlife products, such as ivory. We developed machine learning-based object recognition models that can identify wildlife products within images and highlight them. The data consists of images of elephant, pangolin, and tiger products that were identified as being sold illegally or that were confiscated by authorities. Specifically, the wildlife products included elephant ivory and skins, pangolin scales, and claws (raw and crafted), and tiger skins and bones. We investigated various combinations of training strategies and two loss functions to identify the best model to use in the automatic detection of these wildlife products. Models were trained for each species while also developing a single model to identify products from all three species. The best model showed an overall accuracy of 84.2% with accuracies of 71.1%, 90.2% and 93.5% in detecting products derived from elephants, pangolins, and tigers, respectively. We further demonstrate that the machine learning model can be made easily available to stakeholders, such as government authorities and law enforcement agencies, by developing a smartphone-based application that had an overall accuracy of 91.3%. The application can be used in real time to click images and help identify potentially prohibited products of target species. Thus, the proposed method is not only applicable for monitoring trade on the web but can also be used e.g. in physical markets for monitoring wildlife trade.
- Abstract(参考訳): 野生生物における持続不可能な貿易は、生物多様性にとって大きな脅威であり、現在ではデジタル市場やソーシャルメディアでますます普及している。
デジタルコンテンツの量が多ければ多いほど、野生生物のトレーディングを自動的に検出する手法の必要性が高まっている。
これらの方法は、象牙などの野生生物の自動識別に特に必要である。
我々は、画像内の野生動物を識別し、ハイライトできる機械学習に基づく物体認識モデルを開発した。
データはゾウ、パンゴリン、トラの製品が違法に販売されたか、当局によって没収されたかのイメージで構成されている。
具体的には象の象牙や皮、パンゴリンのスケール、爪(生・工芸品)、虎の皮や骨などである。
本研究では,これらの野生生物の自動検出に最適なモデルを特定するために,訓練戦略と2つの損失関数の組み合わせについて検討した。
モデルは各種について訓練され、同時に3種すべてから生成物を識別する単一のモデルも開発された。
最良のモデルでは、全体の精度は84.2%で、それぞれ71.1%、90.2%、93.5%であった。
さらに我々は、全体精度91.3%のスマートフォンベースのアプリケーションを開発することにより、政府機関や法執行機関などのステークホルダーが機械学習モデルを簡単に利用できることを実証した。
このアプリケーションはリアルタイムで画像をクリックし、標的種の潜在的に禁止された製品を特定するのに役立つ。
したがって,本手法は,Web上の取引をモニタリングするだけでなく,野生生物の取引をモニタリングする物理市場などでも利用することができる。
関連論文リスト
- OpenAnimalTracks: A Dataset for Animal Track Recognition [2.3020018305241337]
動物足跡の自動分類と検出を容易にするために設計された,最初の公開ラベル付きデータセットであるOpenAnimalTracksデータセットを紹介する。
代表分類器と検出モデルを用いた自動フットプリント識別の可能性を示す。
われわれのデータセットは、動物の自動追跡技術の道を切り開き、生物多様性の保護と管理の能力を高めることを願っている。
論文 参考訳(メタデータ) (2024-06-14T00:37:17Z) - Learning the 3D Fauna of the Web [70.01196719128912]
3D-Faunaは,100種以上の動物種を対象に,パンカテゴリーで変形可能な3D動物モデルを共同で学習する手法である。
動物モデリングにおける重要なボトルネックの1つは、トレーニングデータの可用性の制限である。
従来のカテゴリー固有の試みは,訓練画像に制限のある希少種への一般化に失敗することを示す。
論文 参考訳(メタデータ) (2024-01-04T18:32:48Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Towards automatic detection of wildlife trade using machine vision
models [0.0]
現在、取引の重要な部分はインターネット、特にデジタルマーケットプレースやソーシャルメディアで行われている。
そこで我々は,市販のエキゾチックなペットのイメージを自動的に識別する目的で,Deep Neural Networksに基づくマシンビジョンモデルを開発した。
5つの異なるアーキテクチャ、3つのトレーニング方法、2つのタイプのデータセットを組み合わせた24のニューラルネットモデルをトレーニングしました。
論文 参考訳(メタデータ) (2022-05-23T14:11:16Z) - SuperAnimal pretrained pose estimation models for behavioral analysis [42.206265576708255]
行動の定量化は神経科学、獣医学、動物保護活動など様々な応用において重要である。
我々は、SuperAnimalと呼ばれる新しい手法で統一基盤モデルを開発するための一連の技術革新を提案する。
論文 参考訳(メタデータ) (2022-03-14T18:46:57Z) - Application of deep learning to camera trap data for ecologists in
planning / engineering -- Can captivity imagery train a model which
generalises to the wild? [0.0]
ディープラーニングモデルは、カメラトラップ画像内の動物を自動的に検出し、分類するように訓練することができる。
本研究は,稀少動物の画像を用いて訓練データセットを生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-24T21:29:14Z) - Florida Wildlife Camera Trap Dataset [48.99466876948454]
フロリダ州南西部の2つの異なる場所から収集された野生生物カメラトラップ分類データセットについて紹介する。
データセットは104,495枚の画像からなり、視覚的に類似した種、様々な照明条件、スキュードクラス分布、絶滅危惧種のサンプルを含む。
論文 参考訳(メタデータ) (2021-06-23T18:53:15Z) - WhoAmI: An Automatic Tool for Visual Recognition of Tiger and Leopard
Individuals in the Wild [3.1708876837195157]
我々は,動物を識別し,動物の種類を特定し,2種の個体を識別する自動アルゴリズムを開発した。
本研究では,南インドのジャングルに記録されたカメラトラップ画像のデータセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-17T16:17:46Z) - Automatic Detection and Recognition of Individuals in Patterned Species [4.163860911052052]
我々は,異なるパターンの個体の自動検出と認識のための枠組みを開発する。
我々は最近提案したFaster-RCNNオブジェクト検出フレームワークを用いて画像中の動物を効率的に検出する。
我々は,シマウマおよびジャガー画像の認識システムを評価し,他のパターンの種への一般化を示す。
論文 参考訳(メタデータ) (2020-05-06T15:29:21Z) - Transferring Dense Pose to Proximal Animal Classes [83.84439508978126]
より一般的な対象検出器やセグメンタなどと同様に、密集したポーズ認識に存在する知識を、他のクラスにおける密集したポーズ認識の問題に移すことが可能であることを示す。
我々は、人間と幾何学的に整合した新しい動物のためのDensePoseモデルを確立することでこれを行う。
また、クラスチンパンジーにDensePoseの方法でラベル付けされた2つのベンチマークデータセットを導入し、アプローチを評価するためにそれらを使用します。
論文 参考訳(メタデータ) (2020-02-28T21:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。