論文の概要: Blur the Linguistic Boundary: Interpreting Chinese Buddhist Sutra in
English via Neural Machine Translation
- arxiv url: http://arxiv.org/abs/2209.15164v1
- Date: Fri, 30 Sep 2022 01:26:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:12:53.687438
- Title: Blur the Linguistic Boundary: Interpreting Chinese Buddhist Sutra in
English via Neural Machine Translation
- Title(参考訳): 言語境界のBlur:ニューラル機械翻訳による中国語経典の解釈
- Authors: Denghao Li, Yuqiao Zeng, Jianzong Wang, Lingwei Kong, Zhangcheng
Huang, Ning Cheng, Xiaoyang Qu, Jing Xiao
- Abstract要約: 漢文で書かれた経典はほとんどの人には不明瞭である。
一般中国語-英語ニューラルマシン翻訳(NMT)はこの領域では失敗する。
本稿では,仏教経典の実践的NMTモデル構築のための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 26.538934062753892
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Buddhism is an influential religion with a long-standing history and profound
philosophy. Nowadays, more and more people worldwide aspire to learn the
essence of Buddhism, attaching importance to Buddhism dissemination. However,
Buddhist scriptures written in classical Chinese are obscure to most people and
machine translation applications. For instance, general Chinese-English neural
machine translation (NMT) fails in this domain. In this paper, we proposed a
novel approach to building a practical NMT model for Buddhist scriptures. The
performance of our translation pipeline acquired highly promising results in
ablation experiments under three criteria.
- Abstract(参考訳): 仏教は長い歴史と深い哲学を持つ影響力のある宗教である。
現在では、仏教の布教に重きを置き、仏教の本質を学ぼうとする世界がますます増えている。
しかし、古典中国語で書かれた仏教経典は、ほとんどの人々や機械翻訳の応用には不明瞭である。
例えば、一般中国語-英語ニューラルマシン翻訳(nmt)はこの領域では失敗する。
本稿では,仏教経典の実践的NMTモデル構築のための新しいアプローチを提案する。
翻訳パイプラインの性能は3つの基準の下でアブレーション実験で高い有望な結果を得た。
関連論文リスト
- When Does Classical Chinese Help? Quantifying Cross-Lingual Transfer in Hanja and Kanbun [48.07219104902607]
古典中国語から漢語・漢文への言語間移動可能性の仮定を疑問視する。
実験の結果,漢文で書かれた古代朝鮮語文書の言語モデル性能に対する古典中国語データセットの影響は最小限であった。
論文 参考訳(メタデータ) (2024-11-07T15:59:54Z) - Exploring Bengali Religious Dialect Biases in Large Language Models with Evaluation Perspectives [5.648318448953635]
大規模言語モデル(LLM)はステレオタイプとバイアスを含む出力を生成することができる。
我々はベンガル語における宗教的な視点から偏見を探求し、特にヒンドゥー語とムスリム・マジョリティの2つの主要な宗教方言に焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T20:19:29Z) - Shuo Wen Jie Zi: Rethinking Dictionaries and Glyphs for Chinese Language
Pre-training [50.100992353488174]
辞書知識と漢字の構造を持つ中国語PLMの意味理解能力を高める新しい学習パラダイムであるCDBERTを紹介する。
我々はCDBERTの2つの中核モジュールを Shuowen と Jiezi と名付け、そこで Shuowen は中国語辞書から最も適切な意味を取り出す過程を指す。
本パラダイムは,従来の中国語PLMのタスク間における一貫した改善を実証する。
論文 参考訳(メタデータ) (2023-05-30T05:48:36Z) - Kanbun-LM: Reading and Translating Classical Chinese in Japanese Methods by Language Models [17.749113496737106]
世界で最初の古典漢文データセットを構築した。
漢字の並べ替えや機械翻訳は漢文理解において重要な役割を担っている。
コードとデータセットはGitHubでリリースしています。
論文 参考訳(メタデータ) (2023-05-22T06:30:02Z) - An evaluation of Google Translate for Sanskrit to English translation
via sentiment and semantic analysis [0.31317409221921144]
2022年、サンスクリット語はGoogle翻訳エンジンに追加された。
本研究では,Bhagavad Gitaを用いて,サンスクリット語のGoogle翻訳を評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-28T04:24:55Z) - A Bilingual Parallel Corpus with Discourse Annotations [82.07304301996562]
本稿では,Jiang et al. (2022)で最初に導入された大きな並列コーパスであるBWBと,注釈付きテストセットについて述べる。
BWBコーパスは、専門家によって英語に翻訳された中国の小説で構成されており、注釈付きテストセットは、様々な談話現象をモデル化する機械翻訳システムの能力を調査するために設計されている。
論文 参考訳(メタデータ) (2022-10-26T12:33:53Z) - Translating Hanja Historical Documents to Contemporary Korean and
English [52.625998002213585]
李氏朝鮮のアナルスには、朝鮮の近代国家に先立つ500年の王国である李氏朝鮮の日記がある。
アナル文字はもともとは古代朝鮮の文体「ハンジャ」で書かれ、1968年から1993年にかけて朝鮮語に翻訳された。
以後、10年間に1人の王の記録が完成した。
本稿では,ハンハの歴史的文書を韓国語や英語に翻訳するニューラルネットワーク翻訳モデルH2KEを提案する。
論文 参考訳(メタデータ) (2022-05-20T08:25:11Z) - Semantic and sentiment analysis of selected Bhagavad Gita translations
using BERT-based language framework [0.4125187280299248]
バガヴァド・ギーガ(Bhagavad Gita)は、サンスクリットで書かれた古代ヒンドゥー教の哲学書で、マハーバーラタ戦争の前にクリシュナ卿とアルジュナの会話を描いている。
本稿では,Bhagavad Gitaから選択された翻訳文(主にサンスクリット語から英語)を,意味分析と感情分析を用いて比較する。
論文 参考訳(メタデータ) (2022-01-09T23:59:11Z) - Phrase-level Active Learning for Neural Machine Translation [107.28450614074002]
ドメイン内データの翻訳に所定の予算を費やすことのできる,アクティブな学習環境を提案する。
我々は、人間の翻訳者へのルーティングのために、新しいドメインの未ラベルデータから全文と個々の句を選択する。
ドイツ語と英語の翻訳タスクでは,不確実性に基づく文選択法に対して,能動的学習手法が一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-06-21T19:20:42Z) - AnchiBERT: A Pre-Trained Model for Ancient ChineseLanguage Understanding
and Generation [22.08457469951396]
AnchiBERTは、BERTのアーキテクチャに基づいた事前訓練された言語モデルである。
詩分類を含む言語理解タスクと生成タスクの両面でAnchiBERTを評価した。
論文 参考訳(メタデータ) (2020-09-24T03:41:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。