論文の概要: Object Detection Approaches to Identifying Hand Images with High Forensic Values
- arxiv url: http://arxiv.org/abs/2412.16431v1
- Date: Sat, 21 Dec 2024 01:37:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 16:00:32.498286
- Title: Object Detection Approaches to Identifying Hand Images with High Forensic Values
- Title(参考訳): 物体検出手法による高法定値手画像の同定
- Authors: Thanh Thi Nguyen, Campbell Wilson, Imad Khan, Janis Dalins,
- Abstract要約: 本稿では,様々な機械学習手法を手動検出と比較し,応用結果を示す。
我々は、4つの手動画像データセット上で、YOLOv8と視覚変換器に基づく物体検出モデルを微調整する。
- 参考スコア(独自算出の注目度): 1.9598097298813262
- License:
- Abstract: Forensic science plays a crucial role in legal investigations, and the use of advanced technologies, such as object detection based on machine learning methods, can enhance the efficiency and accuracy of forensic analysis. Human hands are unique and can leave distinct patterns, marks, or prints that can be utilized for forensic examinations. This paper compares various machine learning approaches to hand detection and presents the application results of employing the best-performing model to identify images of significant importance in forensic contexts. We fine-tune YOLOv8 and vision transformer-based object detection models on four hand image datasets, including the 11k hands dataset with our own bounding boxes annotated by a semi-automatic approach. Two YOLOv8 variants, i.e., YOLOv8 nano (YOLOv8n) and YOLOv8 extra-large (YOLOv8x), and two vision transformer variants, i.e., DEtection TRansformer (DETR) and Detection Transformers with Assignment (DETA), are employed for the experiments. Experimental results demonstrate that the YOLOv8 models outperform DETR and DETA on all datasets. The experiments also show that YOLOv8 approaches result in superior performance compared with existing hand detection methods, which were based on YOLOv3 and YOLOv4 models. Applications of our fine-tuned YOLOv8 models for identifying hand images (or frames in a video) with high forensic values produce excellent results, significantly reducing the time required by forensic experts. This implies that our approaches can be implemented effectively for real-world applications in forensics or related fields.
- Abstract(参考訳): 法科学は法的な調査において重要な役割を担い、機械学習法に基づく物体検出などの高度な技術を用いることで、法医学解析の効率性と正確性を高めることができる。
人間の手は独特で、法医学的な検査に使えるパターン、マーク、印刷物を残すことができる。
本稿では, 各種機械学習手法を手動検出と比較し, 法医学的文脈において重要な画像を特定するために, 最高の性能モデルを用いた適用結果を示す。
半自動的アプローチによって注釈付けされた独自のバウンディングボックスを備えた1kハンドデータセットを含む、YOLOv8およびビジョントランスフォーマーベースのオブジェクト検出モデルを4つの手画像データセット上で微調整する。
YOLOv8は、YOLOv8 nano (YOLOv8n) とYOLOv8 extra-large (YOLOv8x) の2種類と、Detection TRansformer (DETR) と Detection Transformer with Assignment (DETA) の2種類がある。
実験の結果、YOLOv8モデルはすべてのデータセットでDETRとDETAを上回っていることが示された。
また, YOLOv3モデルとYOLOv4モデルに基づく従来の手検出手法と比較して, YOLOv8アプローチの方が優れた性能を示した。
解析値の高い手画像(または動画のフレーム)を識別するための細調整されたYOLOv8モデルの応用は、優れた結果をもたらし、法医学の専門家が必要とする時間を著しく短縮する。
このことは、我々のアプローチが、法医学や関連分野における現実世界の応用に効果的に実装可能であることを示唆している。
関連論文リスト
- Cutting-Edge Detection of Fatigue in Drivers: A Comparative Study of Object Detection Models [0.0]
本研究は, YOLOv5, YOLOv6, YOLOv7, YOLOv8を含む, 近代的な物体検出アルゴリズムに基づく疲労検出システムの開発について述べる。
これらのモデルの性能を比較することで,運転者の疲労関連行動のリアルタイム検出の有効性を評価する。
この研究は、環境変動や検出精度といった課題に対処し、リアルタイム検出を強化するロードマップを提案する。
論文 参考訳(メタデータ) (2024-10-19T08:06:43Z) - Innovative Deep Learning Techniques for Obstacle Recognition: A Comparative Study of Modern Detection Algorithms [0.0]
本研究では,高度なYOLOモデル,特にYOLOv8,YOLOv7,YOLOv6,YOLOv5を用いた障害物検出の包括的アプローチについて検討する。
その結果, YOLOv8は精度が向上し, 精度が向上した。
論文 参考訳(メタデータ) (2024-10-14T02:28:03Z) - Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Investigating YOLO Models Towards Outdoor Obstacle Detection For
Visually Impaired People [3.4628430044380973]
7種類のYOLOオブジェクト検出モデルが実装された。
YOLOv8は最高のモデルであることが判明し、その精度は80ドルに達し、よく知られたObstacleデータセットでは68.2%だった。
YOLO-NASは障害物検出作業に最適であることがわかった。
論文 参考訳(メタデータ) (2023-12-10T13:16:22Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - An Investigation into Glomeruli Detection in Kidney H&E and PAS Images
using YOLO [0.4012351415340318]
本稿では,顕微鏡画像用リアルタイム物体検出器YOLO-v4(You-Only-Look-Once)について検討する。
YOLOは1つのニューラルネットワークを使用して、いくつかのバウンディングボックスと、関心のあるオブジェクトのクラス確率を予測する。
モデルを微調整するために、2つの公開データセットとミシガン大学のプライベートデータセットの異なるトレーニングデータに基づいて、複数の実験が設計され、実施されている。
このモデルはミシガン大学のプライベートデータセットでテストされ、ヘマトキシリンとエオシン(H&E)と周期酸-シフの2つの異なる染色の外部検証に役立った。
論文 参考訳(メタデータ) (2023-07-25T01:35:37Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。