論文の概要: Evaluating Large Language Models for Diacritic Restoration in Romanian Texts: A Comparative Study
- arxiv url: http://arxiv.org/abs/2511.13182v2
- Date: Tue, 18 Nov 2025 13:16:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 13:59:16.885043
- Title: Evaluating Large Language Models for Diacritic Restoration in Romanian Texts: A Comparative Study
- Title(参考訳): ルーマニア語文における対話的復元のための大規模言語モデルの評価 : 比較研究
- Authors: Mihai Dan Nadas, Laura Diosan,
- Abstract要約: 本研究は,ルーマニア語テキストにおけるダイアクリティカルティクスの復元におけるいくつかの大規模言語モデル (LLM) の性能を評価する。
その結果、GPT-4oのようなモデルでは、中性エコーベースラインを一貫して超える高いダイアクリティカルな復元精度が得られた。
これらの知見は, モデルアーキテクチャ, トレーニングデータ, 即時設計が診断的復元性能に与える影響を浮き彫りにした。
- 参考スコア(独自算出の注目度): 0.17188280334580197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic diacritic restoration is crucial for text processing in languages with rich diacritical marks, such as Romanian. This study evaluates the performance of several large language models (LLMs) in restoring diacritics in Romanian texts. Using a comprehensive corpus, we tested models including OpenAI's GPT-3.5, GPT-4, GPT-4o, Google's Gemini 1.0 Pro, Meta's Llama 2 and Llama 3, MistralAI's Mixtral 8x7B Instruct, airoboros 70B, and OpenLLM-Ro's RoLlama 2 7B, under multiple prompt templates ranging from zero-shot to complex multi-shot instructions. Results show that models such as GPT-4o achieve high diacritic restoration accuracy, consistently surpassing a neutral echo baseline, while others, including Meta's Llama family, exhibit wider variability. These findings highlight the impact of model architecture, training data, and prompt design on diacritic restoration performance and outline promising directions for improving NLP tools for diacritic-rich languages.
- Abstract(参考訳): 自動ダイアクリティカル復元は、ルーマニア語のような豊富なダイアクリティカルマークを持つ言語におけるテキスト処理に不可欠である。
本研究は,ルーマニア語テキストにおけるダイアクリティカルティクスの復元におけるいくつかの大規模言語モデル (LLM) の性能を評価する。
包括的なコーパスを使用して、OpenAIのGPT-3.5、GPT-4、GPT-4o、GoogleのGemini 1.0 Pro、MetaのLlama 2とLlama 3、MistralAIのMixtral 8x7Bインストラクト、airoboros 70B、OpenLLM-RoのRoLlama 2 7Bといったモデルを、ゼロショットから複雑なマルチショット命令まで、複数のプロンプトテンプレートの下でテストしました。
その結果, GPT-4o などのモデルでは中性エコーベースラインを一貫して超える高いダイアクリティカルな復元精度が得られ, Meta の Llama ファミリーを含む他のモデルでは, より広範に変動が見られた。
これらの知見は, モデルアーキテクチャ, トレーニングデータ, 即時設計がダイアクリティカルな復元性能に与える影響を明らかにするとともに, ダイアクリティカルな言語のためのNLPツール改善のための有望な方向性を概説した。
関連論文リスト
- Evaluating Prompt-Based and Fine-Tuned Approaches to Czech Anaphora Resolution [0.0]
アナフォラ分解は、チェコ語のような形態学的に豊かな言語において、自然言語理解において重要な役割を担っている。
本稿では,チェコ語テキストにおけるアナフォラ分解能に対する2つの近代的アプローチの比較評価を行った。
本研究では,大規模言語モデル (LLM) と微調整型コンパクト生成モデルとの比較を行った。
論文 参考訳(メタデータ) (2025-06-22T16:32:57Z) - M-Prometheus: A Suite of Open Multilingual LLM Judges [65.63858815169924]
M-Prometheusは,多言語出力の直接評価とペア比較フィードバックを両立できるオープンウェイトLLM判定器のスイートである。
M-Prometheusモデルは、20以上の言語にまたがる多言語報酬ベンチマークや、4つの言語対をカバーする文語機械翻訳(MT)評価において、最先端のLLM判事より優れている。
論文 参考訳(メタデータ) (2025-04-07T11:37:26Z) - Discourse Features Enhance Detection of Document-Level Machine-Generated Content [53.41994768824785]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
既存のMGC検出器は、しばしば表面レベルの情報のみに焦点を当て、暗黙的かつ構造的な特徴を見渡す。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - PolyIPA -- Multilingual Phoneme-to-Grapheme Conversion Model [0.0]
PolyIPAは、多言語名の文字化のために設計された、新しい多言語音素-音素変換モデルである。
データ拡張のために2つのヘルパーモデルが開発されている。言語間での音響類似性を見つけるためのIPA2vecと、音素表記のバリエーションを扱うための類似IPAである。
このモデルは平均的な文字誤り率 0.055 と文字レベルのBLEUスコア 0.914 を達成し、特に浅い正書法を持つ言語では高い性能を示す。
論文 参考訳(メタデータ) (2024-12-12T09:29:59Z) - Don't Touch My Diacritics [6.307256398189243]
我々は、多くの言語やスクリプトを起源とするテキストにおけるダイアクリティカルな文章の扱いに焦点をあてる。
本研究は,いくつかのケーススタディを通じて,ダイアクリティカル文字の非一貫性な符号化と,ダイアクリティカル文字を完全に除去する効果を実証する。
論文 参考訳(メタデータ) (2024-10-31T17:03:44Z) - MURI: High-Quality Instruction Tuning Datasets for Low-Resource Languages via Reverse Instructions [54.08017526771947]
MURI(Multilingual Reverse Instructions)は低リソース言語のための高品質な命令チューニングデータセットを生成する。
MURIは、低リソース言語における既存の人文テキストから命令出力ペアを生成する。
私たちのデータセットであるMURI-ITには200言語にまたがる200万以上の命令出力ペアが含まれています。
論文 参考訳(メタデータ) (2024-09-19T17:59:20Z) - CritiqueLLM: Towards an Informative Critique Generation Model for Evaluation of Large Language Model Generation [87.44350003888646]
Eval-Instructは、疑似参照でポイントワイズした批評を取得し、マルチパスプロンプトを通じてこれらの批評を修正できる。
CritiqueLLMは、ChatGPTとすべてのオープンソースベースラインを上回るように実証的に示されています。
論文 参考訳(メタデータ) (2023-11-30T16:52:42Z) - Text Summarization Using Large Language Models: A Comparative Study of
MPT-7b-instruct, Falcon-7b-instruct, and OpenAI Chat-GPT Models [0.0]
Leveraging Large Language Models (LLMs) は、要約技術の強化において、顕著な将来性を示している。
本稿では,MPT-7b-instruct,falcon-7b-instruct,OpenAI ChatGPT text-davinci-003 モデルなど,多種多様な LLM を用いたテキスト要約について検討する。
論文 参考訳(メタデータ) (2023-10-16T14:33:02Z) - Few-shot Learning with Multilingual Language Models [66.49496434282564]
多様な言語群をカバーするバランスの取れたコーパス上で,多言語の自動回帰言語モデルを訓練する。
私たちの最大のモデルは、20以上の代表言語で数ショットの学習において、新しい最先端の技術を定めています。
本稿では,モデルがどこで成功し,失敗するかを詳細に分析し,特に言語間の文脈内学習を可能にすることを示す。
論文 参考訳(メタデータ) (2021-12-20T16:52:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。