論文の概要: Accent Placement Models for Rigvedic Sanskrit Text
- arxiv url: http://arxiv.org/abs/2511.23088v1
- Date: Fri, 28 Nov 2025 11:22:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.873916
- Title: Accent Placement Models for Rigvedic Sanskrit Text
- Title(参考訳): リグベディッドサンスクリットテキストのアクセント配置モデル
- Authors: Akhil Rajeev P, Annarao Kulkarni,
- Abstract要約: リグヴェーダは、インド最古のテキストの一つであり、独特のピッチアクセントシステムを採用している。
この研究は、解釈不能なロカの並列コーパスを開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The Rigveda, among the oldest Indian texts in Vedic Sanskrit, employs a distinctive pitch-accent system : udātta, anudātta, svarita whose marks encode melodic and interpretive cues but are often absent from modern e-texts. This work develops a parallel corpus of accented-unaccented ślokas and conducts a controlled comparison of three strategies for automatic accent placement in Rigvedic verse: (i) full fine-tuning of ByT5, a byte-level Transformer that operates directly on Unicode combining marks, (ii) a from-scratch BiLSTM-CRF sequence-labeling baseline, and (iii) LoRA-based parameter-efficient fine-tuning atop ByT5. Evaluation uses Word Error Rate (WER) and Character Error Rate (CER) for orthographic fidelity, plus a task-specific Diacritic Error Rate (DER) that isolates accent edits. Full ByT5 fine-tuning attains the lowest error across all metrics; LoRA offers strong efficiency-accuracy trade-offs, and BiLSTM-CRF serves as a transparent baseline. The study underscores practical requirements for accent restoration - Unicode-safe preprocessing, mark-aware tokenization, and evaluation that separates grapheme from accent errors - and positions heritage-language technology as an emerging NLP area connecting computational modeling with philological and pedagogical aims. Results establish reproducible baselines for Rigvedic accent restoration and provide guidance for downstream tasks such as accent-aware OCR, ASR/chant synthesis, and digital scholarship.
- Abstract(参考訳): リグヴェーダは、ヴェーディック・サンスクリットで最古のインド文学の1つであるが、独特のピッチアクセントシステム(udātta, anudātta, svarita)を採用している。
この研究はアクセント付き非アクセント付きシュロカスの平行コーパスを開発し、リグヴェード詩におけるアクセントの自動配置のための3つの戦略の制御された比較を行う。
(i)Unicode合成マークを直接操作するバイトレベルの変換器であるByT5の完全な微調整。
(ii)BiLSTM-CRFシークエンスラベルベースライン及び
3LoRAをベースとしたパラメータ効率の微調整をBYT5上で行うこと。
単語誤り率(WER)と文字誤り率(CER)を正書法忠実度に用い、アクセント編集を分離するタスク固有の発音誤り率(DER)を用いる。
フルBYT5ファインチューニングはすべてのメトリクスで最小のエラーを達成し、LoRAは高い効率精度のトレードオフを提供し、BiLSTM-CRFは透明なベースラインとして機能する。
この研究は、アクセント修復の実践的な要件 - Unicodeセーフな前処理、マーク認識トークン化、およびアクセントエラーからグラファイムを分離する評価 - を強調し、計算モデルと文献的および教育的目的を結びつける新しいNLP領域として遺産言語技術の位置を定めている。
リグベディックアクセント修復のための再現可能なベースラインを確立し、アクセント認識型OCR、ASR/チャント合成、デジタル奨学金などの下流タスクのガイダンスを提供する。
関連論文リスト
- LLM Encoder vs. Decoder: Robust Detection of Chinese AI-Generated Text with LoRA [4.104443734934105]
我々は、エンコーダベースのトランスフォーマー(中国のBERTラージとRoBERTa-wwm-ext-large)、デコーダのみのLCM(アリババのQwen2.5-7B/Deep-R1-Distill-Qwen-7B)、およびFastTextベースラインを比較した。
実験により、エンコーダモデルはトレーニングデータをほとんど記憶しているが、分散シフト時に顕著な性能劣化を被っていることが明らかになった。
論文 参考訳(メタデータ) (2025-08-31T07:51:22Z) - Decoding Translation-Related Functional Sequences in 5'UTRs Using Interpretable Deep Learning Models [0.0]
UTR-STCNetは可変長5'UTRの柔軟かつ生物学的基盤モデリングのためのトランスフォーマーベースのアーキテクチャである。
Saliency-Aware Token Clustering (SATC)モジュールは、サリエンシスコアに基づいて、ヌクレオチドトークンを有意義な単位に反復的に集約する。
Saliency-Guided Transformer(SGT)ブロックは、軽量なアテンション機構を使用して、ローカルおよび遠位規制の依存関係をキャプチャする。
論文 参考訳(メタデータ) (2025-07-22T17:51:13Z) - LM-SPT: LM-Aligned Semantic Distillation for Speech Tokenization [8.365515332927444]
近年の音声トークン化手法は,低レベル音響から意味情報を分離し,言語モデルとの整合性を向上することを目的としている。
新規なセマンティック蒸留を導入する音声トークン化手法であるLM-SPTを提案する。
LM-SPTは,ベースラインに比べて高い再現性が得られることを示す。
論文 参考訳(メタデータ) (2025-06-20T04:15:14Z) - Semantically Corrected Amharic Automatic Speech Recognition [27.569469583183423]
私たちはアフリカ東部で5000万人以上の人々が話しているアムハラ語のためのASRツールセットを構築しています。
既存のAmharic ASRテストデータセットの書き起こしを修正し、コミュニティが進捗を正確に評価できるようにする。
本稿では,トランスフォーマーエンコーダデコーダアーキテクチャを用いて,生のASR出力を文法的に完全かつ意味論的に意味のあるアムハラ語文に整理する後処理手法を提案する。
論文 参考訳(メタデータ) (2024-04-20T12:08:00Z) - Accented Speech Recognition With Accent-specific Codebooks [53.288874858671576]
音声アクセントは最先端の自動音声認識(ASR)システムに重大な課題をもたらす。
あまり表現されないアクセントによる性能低下は、ASRの包括的採用に対する深刻な抑止力である。
トレーニング可能なコードブックを用いたクロスアテンションを用いた,エンドツーエンドのASRシステムに対するアクセント適応手法を提案する。
論文 参考訳(メタデータ) (2023-10-24T16:10:58Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - Adversarial Training For Low-Resource Disfluency Correction [50.51901599433536]
ディフルエンシ補正(DC)のための逆学習型シーケンスタグ付けモデルを提案する。
提案手法の利点は,3つのインド語でDCに対して評価することで,合成された非流動データに大きく依存することを示す。
また,本手法は,音声障害によって導入されたASR文字の破面的不一致の除去にも有効である。
論文 参考訳(メタデータ) (2023-06-10T08:58:53Z) - CodeBLEU: a Method for Automatic Evaluation of Code Synthesis [57.87741831987889]
コード合成の分野では、一般的に使用される評価基準はBLEUまたは完全精度である。
我々はCodeBLEUと呼ばれる新しい自動評価指標を導入する。
n-gramマッチングにおけるBLEUの強度を吸収し、抽象構文木(AST)やデータフローによるコードセマンティクスを通じてコード構文を注入する。
論文 参考訳(メタデータ) (2020-09-22T03:10:49Z) - Robust Prediction of Punctuation and Truecasing for Medical ASR [18.08508027663331]
本稿では,句読点と実測点の予測のための条件付き共同モデリングフレームワークを提案する。
また,医療領域データを用いた微調整型マスキング言語モデルによるドメイン・タスク特化手法を提案する。
論文 参考訳(メタデータ) (2020-07-04T07:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。