論文の概要: Hebrew letters Detection and Cuneiform tablets Classification by using the yolov8 computer vision model
- arxiv url: http://arxiv.org/abs/2407.06133v1
- Date: Sun, 19 May 2024 09:37:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 14:19:18.436069
- Title: Hebrew letters Detection and Cuneiform tablets Classification by using the yolov8 computer vision model
- Title(参考訳): ヨロブ8コンピュータビジョンモデルを用いたヘブライ文字の検出とCuneiformタブレット分類
- Authors: Elaf A. Saeed, Ammar D. Jasim, Munther A. Abdul Malik,
- Abstract要約: 本稿では,ヘブライ語文の内容に応じて,クオリフォームなタブレット画像を特定するための,ディープラーニングに基づく手話検出手法を提案する。
ヘブライ語アルファベットは、深層学習に必要な訓練データを集めるのが難しくて費用がかかることで知られている。
本研究の目的は,Yolov8オブジェクト識別事前訓練モデルを用いて,ヘブライ語の文字を識別し,キュニフォームタブレットを分類することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cuneiform writing, an old art style, allows us to see into the past. Aside from Egyptian hieroglyphs, the cuneiform script is one of the oldest writing systems. Many historians place Hebrew's origins in antiquity. For example, we used the same approach to decipher the cuneiform languages; after learning how to decipher one old language, we would visit an archaeologist to learn how to decipher any other ancient language. We propose a deep-learning-based sign detector method to speed up this procedure to identify and group cuneiform tablet images according to Hebrew letter content. The Hebrew alphabet is notoriously difficult and costly to gather the training data needed for deep learning, which entails enclosing Hebrew characters in boxes. We solve this problem using pre-existing transliterations and a sign-by-sign representation of the tablet's content in Latin characters. We recommend one of the supervised approaches because these do not include sign localization: We Find the transliteration signs in the tablet photographs by comparing them to their corresponding transliterations. Then, retrain the sign detector using these localized signs instead of utilizing annotations. Afterward, a more effective sign detector enhances the alignment quality. Consequently, this research aims to use the Yolov8 object identification pretraining model to identify Hebrew characters and categorize the cuneiform tablets.
- Abstract(参考訳): 古風な書体であるキュニフォーム・ライティングは、過去を見ることができる。
エジプトのヒエログリフ以外では、クネイフォーム文字は最古の書記体系の一つである。
多くの歴史家がヘブライ語の起源を古代に定めている。
古い言語を解読する方法を学んだ後、考古学者を訪ねて、他の古代の言語を解読する方法を学びました。
ヘブライ語文の内容に基づいて,この手順を高速化し,キュニフォームなタブレット画像の識別とグループ化を行うための,ディープラーニングに基づく手話検出手法を提案する。
ヘブライ語アルファベットは、深層学習に必要な訓練データを集めるのが難しくて費用がかかることで知られています。
そこで本研究では,既存の文字起こしと,ラテン文字によるタブレットの内容のサインバイサイン表現を用いて,この問題を解決する。
我々は,これらに記号の局所化を含まないため,教師付きアプローチの1つを推奨する。
次に、アノテーションを使わずに、これらの局所的な標識を用いて符号検出器を再訓練する。
その後、より効果的な符号検出器によりアライメント品質が向上する。
そこで本研究では,Yolov8オブジェクト識別事前学習モデルを用いて,ヘブライ語の文字を識別し,クチュニフォームタブレットを分類することを目的とする。
関連論文リスト
- Bukva: Russian Sign Language Alphabet [75.42794328290088]
本稿では,ロシア手話(RSL)ダクティルとしても知られる,ロシア語の指先文字の認識について検討する。
ダクティル (Dactyl) は手の動きが書かれた言語の個々の文字を表す手話の構成要素である。
当社は、RSLダクチル認識のための、最初の本格的なオープンソースビデオデータセットであるBakvaを提供している。
論文 参考訳(メタデータ) (2024-10-11T09:59:48Z) - MenakBERT -- Hebrew Diacriticizer [0.13654846342364307]
我々はヘブライ語文で事前訓練された文字レベル変換器であるMenakBERTを紹介し、ヘブライ語文のダイアクリティカルマークを生成するよう微調整した。
本稿では,音声タグ付けなどのタスクへの移動を記述するためのモデルがいかに微調整されているかを示す。
論文 参考訳(メタデータ) (2024-10-03T12:07:34Z) - T2S-GPT: Dynamic Vector Quantization for Autoregressive Sign Language Production from Text [59.57676466961787]
本稿では,手話における情報密度に基づいて符号化長を調整できる新しい動的ベクトル量子化(DVA-VAE)モデルを提案する。
PHOENIX14Tデータセットを用いて実験を行い,提案手法の有効性を示した。
我々は,486時間の手話ビデオ,音声,文字起こしテキストを含むドイツ語手話データセットPHOENIX-Newsを提案する。
論文 参考訳(メタデータ) (2024-06-11T10:06:53Z) - Puzzle Pieces Picker: Deciphering Ancient Chinese Characters with Radical Reconstruction [73.26364649572237]
Oracle Bone Inscriptionsは、世界で最も古い書式である。
多くのOracle Bone Inscriptions (OBI) は未解読のままであり、今日の古生物学におけるグローバルな課題の1つとなっている。
本稿では, 急進的再構成によってこれらの謎的文字を解読する新しい手法, Puzzle Pieces Picker (P$3$) を提案する。
論文 参考訳(メタデータ) (2024-06-05T07:34:39Z) - DeepScribe: Localization and Classification of Elamite Cuneiform Signs
Via Deep Learning [5.7343926114197075]
1933年、シカゴ大学東洋研究所の考古学者たちは、ペルセポリスの発掘中に数万の土台や破片を発見した。
これらのタブレットの多くは、専門家のキュニフォーム主義者によって痛々しく撮影され、注釈付けされた5000枚以上のアノテートされたタブレットイメージと、10万枚以上のキュニフォームのサインバウンディングボックスからなるリッチなデータセットを提供している。
我々はこのデータセットを活用して、各符号の同一性に関する提案を提供するモジュール型コンピュータビジョンパイプラインであるDeepScribeを開発した。
論文 参考訳(メタデータ) (2023-06-02T05:04:27Z) - Design of Arabic Sign Language Recognition Model [0.0]
このモデルはArASL 2018でテストされ、40の署名者から集められた32のアルファベット記号に対して54,000の画像で構成されている。
今後の開発は、アラビア語の手話からアラビア語のテキストに変換するモデルになる予定だ。
論文 参考訳(メタデータ) (2023-01-06T19:19:25Z) - Weakly-supervised Fingerspelling Recognition in British Sign Language
Videos [85.61513254261523]
従来の指スペル認識法は、British Sign Language (BSL) に焦点を絞っていない
従来の手法とは対照的に,本手法はトレーニング用字幕の弱いアノテーションのみを使用する。
本稿では,このタスクに適応したTransformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T15:02:36Z) - Scaling up sign spotting through sign language dictionaries [99.50956498009094]
この作業の焦点は、$textitsign spotting$ - 分離されたサインのビデオの場合、$textitwwhere$ と $textitwhere$ の識別が、連続的かつ協調的な手話ビデオで署名されている。
我々は,(1) $textitwatching$既存の映像を口コミでスムーズにラベル付けする,(2) $textitreading$ associated subtitles that provide additional translations of the signed content。
アプローチの有効性を低く検証する。
論文 参考訳(メタデータ) (2022-05-09T10:00:03Z) - Filling the Gaps in Ancient Akkadian Texts: A Masked Language Modelling
Approach [8.00388161728995]
我々は、古代メソポタミアの文書の文字化を前提とした、欠落したテキストを完遂するモデルを提案する。
タブレットの劣化のため、学者はテキストの欠落部分を手作業で埋めるために文脈的な手がかりに頼っていることが多い。
論文 参考訳(メタデータ) (2021-09-09T18:58:14Z) - Generating Novel Glyph without Human Data by Learning to Communicate [1.4213973379473654]
トレーニングデータなしで新しいグリフを生成するシステムを提案する。
提案手法は人造グリフに類似したグリフであり,既存のグリフの視覚的外観は書面によるコミュニケーションの制約に起因していると考えられる。
論文 参考訳(メタデータ) (2020-10-09T07:18:36Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。