論文の概要: Hebrew Diacritics Restoration using Visual Representation
- arxiv url: http://arxiv.org/abs/2510.26521v1
- Date: Thu, 30 Oct 2025 14:15:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.852131
- Title: Hebrew Diacritics Restoration using Visual Representation
- Title(参考訳): 視覚表現を用いたヘブライ語発音の復元
- Authors: Yair Elboher, Yuval Pinter,
- Abstract要約: ゼロショット分類問題としてタスクをフレーム化するヘブライ語ダイアクリプティゼーションシステムであるDIVRITを提案する。
提案手法は単語レベルで動作し,各単語に対して最も適切な発音パターンを選択する。
DIVRITの重要な革新は、画像として非記述テキストを処理するヘブライ語ビジュアル言語モデルを使用することである。
- 参考スコア(独自算出の注目度): 8.254230288283258
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Diacritics restoration in Hebrew is a fundamental task for ensuring accurate word pronunciation and disambiguating textual meaning. Despite the language's high degree of ambiguity when unvocalized, recent machine learning approaches have significantly advanced performance on this task. In this work, we present DIVRIT, a novel system for Hebrew diacritization that frames the task as a zero-shot classification problem. Our approach operates at the word level, selecting the most appropriate diacritization pattern for each undiacritized word from a dynamically generated candidate set, conditioned on the surrounding textual context. A key innovation of DIVRIT is its use of a Hebrew Visual Language Model, which processes undiacritized text as an image, allowing diacritic information to be embedded directly within the input's vector representation. Through a comprehensive evaluation across various configurations, we demonstrate that the system effectively performs diacritization without relying on complex, explicit linguistic analysis. Notably, in an ``oracle'' setting where the correct diacritized form is guaranteed to be among the provided candidates, DIVRIT achieves a high level of accuracy. Furthermore, strategic architectural enhancements and optimized training methodologies yield significant improvements in the system's overall generalization capabilities. These findings highlight the promising potential of visual representations for accurate and automated Hebrew diacritization.
- Abstract(参考訳): ヘブライ語における方言の復元は、正確な単語の発音とテキストの意味の曖昧さを保証するための基本的な課題である。
アンボーカライズされていない言語では曖昧さの度合いが高いにもかかわらず、最近の機械学習アプローチは、このタスクにおいてかなり高度なパフォーマンスを持っている。
本稿では,ヘブライ語ダイアクリプティゼーションのための新しいシステムであるDIVRITについて述べる。
本手法は単語レベルで動作し,周囲のテクスチュアコンテキストに条件付き動的に生成した候補集合から,単語毎に最も適切な発音パターンを選択する。
DIVRITの重要な革新はヘブライ語ビジュアル言語モデルを使用することである。
様々な構成の包括的評価を通じて,複雑で明示的な言語分析に頼ることなく,効果的にダイアクリタイズを行うことを示した。
特に、与えられた候補のうち、正しいダイアライズされた形式が保証されている '`oracle'' 設定では、DIVRIT は高い精度を達成する。
さらに、戦略的アーキテクチャ強化と最適化されたトレーニング手法により、システム全体の一般化能力が大幅に向上する。
これらの知見は, 正確な, 自動化されたヘブライ語発音のための視覚表現の可能性を示すものである。
関連論文リスト
- Harnessing the Intrinsic Knowledge of Pretrained Language Models for Challenging Text Classification Settings [5.257719744958367]
この論文は、事前学習された言語モデル(PLM)の本質的な知識を活用することによって、テキスト分類における3つの挑戦的な設定を探求する。
本研究では, PLMの文脈表現に基づく特徴量を利用したモデルを構築し, 人間の精度に匹敵する, あるいは超越する性能を実現する。
最後に、実効的な実演を選択することで、大規模言語モデルの文脈内学習プロンプトに対する感受性に取り組む。
論文 参考訳(メタデータ) (2024-08-28T09:07:30Z) - Improved Contextual Recognition In Automatic Speech Recognition Systems
By Semantic Lattice Rescoring [4.819085609772069]
本稿では,意味的格子処理によるASRシステム内における文脈認識の高度化のための新しい手法を提案する。
提案手法は,隠れマルコフモデルとガウス混合モデル(HMM-GMM)とディープニューラルネットワーク(DNN)モデルを用いて,精度を向上する。
本稿では,実験分析によるLibriSpeechデータセット上でのフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T23:16:05Z) - Towards Realistic Zero-Shot Classification via Self Structural Semantic
Alignment [53.2701026843921]
大規模事前訓練型視覚言語モデル(VLM)はゼロショット分類に有効であることが証明されている。
本稿では,アノテーションではなく,より広い語彙を前提とした,より難易度の高いゼロショット分類(Realistic Zero-Shot Classification)を提案する。
本稿では,ラベルのないデータから構造意味情報を抽出し,同時に自己学習を行う自己構造意味アライメント(S3A)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-24T17:56:46Z) - UniFine: A Unified and Fine-grained Approach for Zero-shot Vision-Language Understanding [88.24517460894634]
ゼロショット視覚言語学習のための微細な情報を利用する統一的なフレームワークを提案する。
我々のフレームワークは従来のVQAのゼロショット法よりも優れており、SNLI-VEとVCRの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-07-03T09:03:12Z) - Visually-augmented pretrained language models for NLP tasks without
images [77.74849855049523]
既存のソリューションはしばしば視覚的知識増強のために明示的なイメージに依存している。
我々は、新しいtextbfVisually-textbfAugmented fine-tuningアプローチを提案する。
我々のアプローチは、BERT、RoBERTa、BART、T5を異なるスケールで継続的に改善することができる。
論文 参考訳(メタデータ) (2022-12-15T16:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。