論文の概要: Real Time American Sign Language Detection Using Yolo-v9
- arxiv url: http://arxiv.org/abs/2407.17950v1
- Date: Thu, 25 Jul 2024 11:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 14:18:40.991252
- Title: Real Time American Sign Language Detection Using Yolo-v9
- Title(参考訳): Yolo-v9を用いた実時間アメリカ手話検出
- Authors: Amna Imran, Meghana Shashishekhara Hulikal, Hamza A. A. Gardi,
- Abstract要約: 本稿では,リアルタイムのアメリカ手話検出に焦点をあてる。
YOLOは、2015年に初めてリリースされた畳み込みニューラルネットワーク(CNN)ベースのモデルである。
本研究は,2024年にリリースされたYOLO-v9モデルを対象としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper focuses on real-time American Sign Language Detection. YOLO is a convolutional neural network (CNN) based model, which was first released in 2015. In recent years, it gained popularity for its real-time detection capabilities. Our study specifically targets YOLO-v9 model, released in 2024. As the model is newly introduced, not much work has been done on it, especially not in Sign Language Detection. Our paper provides deep insight on how YOLO- v9 works and better than previous model.
- Abstract(参考訳): 本稿では,リアルタイムのアメリカ手話検出に焦点をあてる。
YOLOは、2015年に初めてリリースされた畳み込みニューラルネットワーク(CNN)ベースのモデルである。
近年、リアルタイム検出機能で人気を博している。
本研究は,2024年にリリースされたYOLO-v9モデルを対象としている。
モデルが新たに導入されたため、特に手話検出では、あまり作業が行われていない。
我々の論文は、YOLO- v9が以前のモデルよりどのように、より良く機能するかについて深い洞察を与えます。
関連論文リスト
- ODVerse33: Is the New YOLO Version Always Better? A Multi Domain benchmark from YOLO v5 to v11 [6.553031877558699]
主要な疑問は、新しいYOLOバージョンのリリース頻度の増加にある。
各YOLOバージョンの中核となるイノベーションはどのようなもので、これらの変更が実際のパフォーマンス向上にどのように変換されるのか?
本稿では、YOLOv1からYOLOv11への重要なイノベーションを要約し、ODverse33と呼ばれる包括的なベンチマークを導入し、実世界のマルチドメインアプリケーションにおけるモデル改善の実践的影響について検討する。
論文 参考訳(メタデータ) (2025-02-20T06:57:58Z) - Comprehensive Performance Evaluation of YOLO11, YOLOv10, YOLOv9 and YOLOv8 on Detecting and Counting Fruitlet in Complex Orchard Environments [0.9565934024763958]
本研究は, 商業果樹園における緑果検出のためのYOLOv8, YOLOv9, YOLOv10, YOLOv11のすべての構成(Total 22)におけるYOLO(You Only Look Once)オブジェクト検出アルゴリズムを広範囲に評価した。
この研究は、iPhoneとマシンビジョンセンサーを使って、Scifresh、Scilate、Honeycrisp、Cosmic Crispの4種類のリンゴをフィールドで数えたことも検証した。
論文 参考訳(メタデータ) (2024-07-01T17:59:55Z) - YOLO11 to Its Genesis: A Decadal and Comprehensive Review of The You Only Look Once (YOLO) Series [6.751138557596013]
本稿では,YOLOv1からYOLOv11へのオブジェクト検出アルゴリズムの進歩を体系的に検討する。
この進化は、今後10年間、YOLOとマルチモーダル、コンテキスト認識、人工知能(AGI)システムを統合するための道のりを示している。
論文 参考訳(メタデータ) (2024-06-12T06:41:23Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time Object Detection [63.36722419180875]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの作業は、他のYOLOモデルのプラグイン・アンド・プレイモジュールとしても機能します。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - ADDSL: Hand Gesture Detection and Sign Language Recognition on Annotated
Danish Sign Language [0.0]
本稿では,デンマーク手話用アノテーションデータセット(ADDSL)について紹介する。
このデータセットを用いて、1段オブジェクト検出モデル(YOLOv5)を訓練し、文字(A-Z)と数字(0-9)を認識する。
5つのモデルは350エポックで訓練され、平均推算時間は1枚あたり9.02ms、最高のアククラックは92%となった。
論文 参考訳(メタデータ) (2023-05-16T18:08:24Z) - Learning Cross-lingual Visual Speech Representations [108.68531445641769]
言語横断的な自己監督型視覚表現学習は、ここ数年、研究トピックとして成長している。
我々は最近提案したRAVEn(Raw Audio-Visual Speechs)フレームワークを用いて,未ラベルデータを用いた音声-視覚モデルの事前学習を行う。
1)データ量が多いマルチ言語モデルはモノリンガルモデルよりも優れているが、データの量を維持すると、モノリンガルモデルの性能が向上する傾向にある。
論文 参考訳(メタデータ) (2023-03-14T17:05:08Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。