論文の概要: Toward a Better Localization of Princeton WordNet
- arxiv url: http://arxiv.org/abs/2508.18134v1
- Date: Tue, 19 Aug 2025 12:23:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.844245
- Title: Toward a Better Localization of Princeton WordNet
- Title(参考訳): Princeton WordNet のローカライゼーション向上に向けて
- Authors: Abed Alhakim Freihat,
- Abstract要約: 本稿では、プリンストンWordNetのローカライズのための構造化フレームワークを提案する。
文化の正しさを損なうことなく、高品質な成果を達成するために必要な段階と手順を詳述する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Princeton WordNet continues to gain significance as a semantic lexicon in Natural Language Processing, the need for its localization and for ensuring the quality of this process has become increasingly critical. Existing efforts remain limited in both scale and rigor, and there is a notable absence of studies addressing the accuracy of localization or its alignment with the cultural context of Arabic. This paper proposes a structured framework for the localization of Princeton WordNet, detailing the stages and procedures required to achieve high-quality results without compromising cultural authenticity. We further present our experience in applying this framework, reporting outcomes from the localization of 10,000 synsets.
- Abstract(参考訳): Princeton WordNetは自然言語処理におけるセマンティック辞書としての重要性を増し続けており、そのローカライゼーションとプロセスの品質確保の必要性がますます重要になっている。
既存の努力は、スケールと厳密さの両方で制限されており、地域化の正確さや、アラビア語の文化的文脈との整合性に対処する研究は、特に欠落している。
本稿では,文化の信頼性を損なうことなく,高品質な結果を得るために必要な段階と手順を詳述した,プリンストンワードネットのローカライズのための構造化フレームワークを提案する。
我々はさらに,このフレームワークの適用経験を示し,1万のシンセットの局所化の結果を報告する。
関連論文リスト
- Culturally-Grounded Chain-of-Thought (CG-CoT):Enhancing LLM Performance on Culturally-Specific Tasks in Low-Resource Languages [0.0]
大規模言語モデル(LLM)は、特に低リソース言語において、文化的に特定の推論タスクに苦しむ。
本稿では,文化的文脈の高密度ベクトル検索と明示的な推論シーケンスを組み合わせた新しいプロンプト戦略であるCG-CoTを紹介する。
論文 参考訳(メタデータ) (2025-06-01T21:57:02Z) - Enhancing Low-Resource Minority Language Translation with LLMs and Retrieval-Augmented Generation for Cultural Nuances [4.017351230188094]
本研究では,Large Language Models (LLMs)とRetrieval-Augmented Generation (RAG)を統合することで,低リソース言語を翻訳する際の課題について検討する。
BLEUスコアは12% (辞書のみ) から31% (RAG with Gemini 2.0) まで様々である。
論文 参考訳(メタデータ) (2025-05-16T03:59:14Z) - Preserving Cultural Identity with Context-Aware Translation Through Multi-Agent AI Systems [0.4218593777811082]
言語は文化的アイデンティティの基盤となっているが、グローバル化と主要言語の優位性により、3000近い言語が絶滅の危機にさらされている。
既存のAI駆動翻訳モデルは効率を優先するが、しばしば文化的ニュアンス、慣用的な表現、歴史的重要性を捉えない。
本稿では,言語コミュニティにおける文化適応型翻訳のための多言語AIフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T06:43:59Z) - Context-aware and Style-related Incremental Decoding framework for Discourse-Level Literary Translation [9.823430236885896]
文学テキストの翻訳は、ニュアンス的な意味、慣用的な表現、複雑な物語構造のために大きな課題を生んでいる。
これらの課題に対処するために、我々はCPT(Continuous Pre-Training)とSFT(Supervised Fine-Tuning)を組み合わせた中国語-Llama2モデルを利用した。
提案手法は,各文がより広い文脈で翻訳されることを保証する新しいインクリメンタル・デコーディング・フレームワークを含む。
論文 参考訳(メタデータ) (2024-09-25T01:27:24Z) - On the Robustness of Language Guidance for Low-Level Vision Tasks: Findings from Depth Estimation [71.72465617754553]
対象中心の3次元空間関係を伝達する低レベルな文を生成し,これらを追加言語として組み込んで,深度推定における下流の影響を評価する。
我々の重要な発見は、現在の言語誘導深度推定器がシーンレベルの記述のみを最適に実行することである。
追加データを活用するにもかかわらず、これらの手法は敵の直接攻撃や分散シフトの増加に伴う性能低下に対して堅牢ではない。
論文 参考訳(メタデータ) (2024-04-12T15:35:20Z) - Enhancing Content Moderation with Culturally-Aware Models [9.890160776193616]
この研究は、文化的な知識で基礎言語モデルを強化する柔軟なフレームワークを導入します。
この枠組みを,様々な領域にまたがるコンテンツを備えたオンラインポッドキャストプラットフォームを事例として評価した。
論文 参考訳(メタデータ) (2023-12-05T00:11:09Z) - NusaWrites: Constructing High-Quality Corpora for Underrepresented and
Extremely Low-Resource Languages [54.808217147579036]
インドネシアの地方言語について事例研究を行う。
データセット構築におけるオンラインスクラップ,人文翻訳,および母語話者による段落作成の有効性を比較した。
本研究は,母語話者による段落作成によって生成されたデータセットが,語彙的多様性と文化的内容の点で優れた品質を示すことを示す。
論文 参考訳(メタデータ) (2023-09-19T14:42:33Z) - Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Morphologically Aware Word-Level Translation [82.59379608647147]
本稿では,バイリンガルレキシコン誘導のための新しい形態素認識確率モデルを提案する。
我々のモデルは、レキセメが意味の鍵となる語彙単位であるという基本的な言語的直観を生かしている。
論文 参考訳(メタデータ) (2020-11-15T17:54:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。