論文の概要: Empowering LLM-based Machine Translation with Cultural Awareness
- arxiv url: http://arxiv.org/abs/2305.14328v1
- Date: Tue, 23 May 2023 17:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 13:37:06.499271
- Title: Empowering LLM-based Machine Translation with Cultural Awareness
- Title(参考訳): 文化認識によるLLM機械翻訳の活用
- Authors: Binwei Yao, Ming Jiang, Diyi Yang, Junjie Hu
- Abstract要約: 伝統的なニューラルネットワーク翻訳(NMT)システムは、しばしば文化的に特定の情報を含む文の翻訳に失敗する。
最近のインコンテキスト学習では、機械翻訳を行うために、軽量なプロンプトを使用して、大規模言語モデル(LLM)をガイドしている。
我々は、文化的に関連のある並列コーパスを構築するための新しいデータキュレーションパイプラインを導入する。
- 参考スコア(独自算出の注目度): 52.365390827200464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional neural machine translation (NMT) systems often fail to translate
sentences that contain culturally specific information. Most previous NMT
methods have incorporated external cultural knowledge during training, which
requires fine-tuning on low-frequency items specific to the culture. Recent
in-context learning utilizes lightweight prompts to guide large language models
(LLMs) to perform machine translation, however, whether such an approach works
in terms of injecting culture awareness into machine translation remains
unclear. To this end, we introduce a new data curation pipeline to construct a
culturally relevant parallel corpus, enriched with annotations of
cultural-specific entities. Additionally, we design simple but effective
prompting strategies to assist this LLM-based translation. Extensive
experiments show that our approaches can largely help incorporate cultural
knowledge into LLM-based machine translation, outperforming traditional NMT
systems in translating cultural-specific sentences.
- Abstract(参考訳): 伝統的なニューラルネットワーク翻訳(NMT)システムは、しばしば文化的に特定の情報を含む文の翻訳に失敗する。
従来のnmt法は、トレーニング中に外部文化的知識を取り入れており、文化特有の低周波項目を微調整する必要がある。
近年のインコンテキスト学習では,機械翻訳に文化意識を注入する手法として,大規模言語モデル(LLM)の指導に軽量なプロンプトが用いられている。
そこで本研究では,文化的に関連のある並列コーパスを構築するための新しいデータキュレーションパイプラインを提案する。
さらに,このLLM翻訳を支援するため,シンプルだが効果的なプロンプト戦略を設計する。
広範囲にわたる実験の結果,我々のアプローチは文化知識をLLMベースの機械翻訳に組み込むのに大きく役立ち,従来のNMTシステムよりも文化特化文の翻訳に優れていた。
関連論文リスト
- Unveiling Cultural Blind Spots: Analyzing the Limitations of mLLMs in Procedural Text Comprehension [6.0422282033999135]
我々は,mLLMsの文化的に多様な手続き的テキストの処理と推論能力を評価するためのベンチマークであるCAPTexを紹介する。
以上の結果から,mLLMsは文化的に文脈化された手続き文の難易度に直面することが示唆された。
多様な言語・文化の景観にまたがる適応性と理解を高めるため、CAPTexのような文化的に意識されたベンチマークの必要性を強調した。
論文 参考訳(メタデータ) (2025-02-20T07:01:08Z) - Proverbs Run in Pairs: Evaluating Proverb Translation Capability of Large Language Model [5.343968769798019]
本稿では,最先端のニューラルネットワーク翻訳 (NMT) と大規模言語モデル (LLM) の翻訳能力について検討する。
4つの言語対の会話において,証明文と証明文の翻訳データセットを構築した。
実験により、研究されたモデルは、類似の文化的背景を持つ言語間の良好な翻訳を達成できることが示されている。
論文 参考訳(メタデータ) (2025-01-21T07:54:22Z) - XTransplant: A Probe into the Upper Bound Performance of Multilingual Capability and Culture Adaptability in LLMs via Mutual Cross-lingual Feed-forward Transplantation [49.69780199602105]
現在の大規模言語モデル(LLM)は多言語能力と文化的適応性に不均衡を示すことが多い。
本稿では,言語間フィードフォワード移植による言語間遅延相互作用を探索するXTransplantという探索手法を提案する。
我々は,LLMの多言語能力と文化的適応性の両方が,XTransplantによって大幅に改善される可能性を持っていることを実証的に証明した。
論文 参考訳(メタデータ) (2024-12-17T09:05:30Z) - Towards Cross-Cultural Machine Translation with Retrieval-Augmented Generation from Multilingual Knowledge Graphs [18.84670051328337]
XC-Translateは、機械翻訳のための最初の大規模な手作業によるベンチマークである。
KG-MTは、多言語知識グラフからの情報をニューラルネットワーク翻訳モデルに統合する、新しいエンドツーエンド手法である。
論文 参考訳(メタデータ) (2024-10-17T21:56:22Z) - Cultural Adaptation of Menus: A Fine-Grained Approach [58.08115795037042]
CSI(Machine Translation of Culture-Specific Items)は、重要な課題である。
CSI翻訳に関する最近の研究は、様々な言語や文化に適応するためにLarge Language Models (LLM)を用いていくつかの成功を収めている。
CSIラベルと非CSIラベルをアノテートした中国語メニューコーパスで最大となる ChineseMenuCSI データセットを提案する。
我々は,ほとんどのカテゴリにおいて,GPTに基づくプロンプトよりも優れた自動CSI識別手法を開発した。
論文 参考訳(メタデータ) (2024-08-24T09:25:18Z) - Translating Across Cultures: LLMs for Intralingual Cultural Adaptation [12.5954253354303]
文化適応の課題を定義し,現代LLMの性能を評価するための評価枠組みを構築した。
我々は、自動適応で起こりうる問題を解析する。
本稿は, LLMの文化的理解と, 異文化のシナリオにおける創造性について, より深い知見を提供していくことを願っている。
論文 参考訳(メタデータ) (2024-06-20T17:06:58Z) - Discourse Centric Evaluation of Machine Translation with a Densely
Annotated Parallel Corpus [82.07304301996562]
本稿では,江らが導入した大規模並列コーパスBWBに基づいて,リッチな談話アノテーションを用いた新しいデータセットを提案する。
ソース言語とターゲット言語の談話構造と類似点と相違点について検討する。
我々はMT出力が人間の翻訳と基本的に異なることを発見した。
論文 参考訳(メタデータ) (2023-05-18T17:36:41Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - When Does Translation Require Context? A Data-driven, Multilingual
Exploration [71.43817945875433]
談話の適切な処理は機械翻訳(MT)の品質に大きく貢献する
文脈認識型MTにおける最近の研究は、評価中に少量の談話現象を標的にしようとしている。
談話現象のモデル性能を識別・評価するタグの集合である,多言語談話認識ベンチマークを開発した。
論文 参考訳(メタデータ) (2021-09-15T17:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。