論文の概要: Empowering LLM-based Machine Translation with Cultural Awareness
- arxiv url: http://arxiv.org/abs/2305.14328v1
- Date: Tue, 23 May 2023 17:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 13:37:06.499271
- Title: Empowering LLM-based Machine Translation with Cultural Awareness
- Title(参考訳): 文化認識によるLLM機械翻訳の活用
- Authors: Binwei Yao, Ming Jiang, Diyi Yang, Junjie Hu
- Abstract要約: 伝統的なニューラルネットワーク翻訳(NMT)システムは、しばしば文化的に特定の情報を含む文の翻訳に失敗する。
最近のインコンテキスト学習では、機械翻訳を行うために、軽量なプロンプトを使用して、大規模言語モデル(LLM)をガイドしている。
我々は、文化的に関連のある並列コーパスを構築するための新しいデータキュレーションパイプラインを導入する。
- 参考スコア(独自算出の注目度): 52.365390827200464
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional neural machine translation (NMT) systems often fail to translate
sentences that contain culturally specific information. Most previous NMT
methods have incorporated external cultural knowledge during training, which
requires fine-tuning on low-frequency items specific to the culture. Recent
in-context learning utilizes lightweight prompts to guide large language models
(LLMs) to perform machine translation, however, whether such an approach works
in terms of injecting culture awareness into machine translation remains
unclear. To this end, we introduce a new data curation pipeline to construct a
culturally relevant parallel corpus, enriched with annotations of
cultural-specific entities. Additionally, we design simple but effective
prompting strategies to assist this LLM-based translation. Extensive
experiments show that our approaches can largely help incorporate cultural
knowledge into LLM-based machine translation, outperforming traditional NMT
systems in translating cultural-specific sentences.
- Abstract(参考訳): 伝統的なニューラルネットワーク翻訳(NMT)システムは、しばしば文化的に特定の情報を含む文の翻訳に失敗する。
従来のnmt法は、トレーニング中に外部文化的知識を取り入れており、文化特有の低周波項目を微調整する必要がある。
近年のインコンテキスト学習では,機械翻訳に文化意識を注入する手法として,大規模言語モデル(LLM)の指導に軽量なプロンプトが用いられている。
そこで本研究では,文化的に関連のある並列コーパスを構築するための新しいデータキュレーションパイプラインを提案する。
さらに,このLLM翻訳を支援するため,シンプルだが効果的なプロンプト戦略を設計する。
広範囲にわたる実験の結果,我々のアプローチは文化知識をLLMベースの機械翻訳に組み込むのに大きく役立ち,従来のNMTシステムよりも文化特化文の翻訳に優れていた。
関連論文リスト
- Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - CultureLLM: Incorporating Cultural Differences into Large Language
Models [39.33251733412784]
CultureLLMは、大きな言語モデルに文化的差異を組み込むためのコスト効率の良いソリューションである。
我々の人間による研究は、生成されたサンプルが元のサンプルと意味的に等価であることを示している。
論文 参考訳(メタデータ) (2024-02-09T04:02:43Z) - Importance-Aware Data Augmentation for Document-Level Neural Machine
Translation [51.74178767827934]
ドキュメントレベルのニューラルマシン翻訳(DocNMT)は、一貫性と結合性の両方を持つ翻訳を生成することを目的としている。
長い入力長とトレーニングデータの可用性が限られているため、DocNMTはデータスパシティーの課題に直面していることが多い。
本稿では,隠れ状態のノルムとトレーニング勾配から推定したトークン重要度情報に基づいてトレーニングデータを拡張するDocNMTのための新しいIADAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-27T09:27:47Z) - Improving Neural Machine Translation by Multi-Knowledge Integration with
Prompting [36.24578487904221]
我々は,マルチ知識,複数種類の知識をNMTモデルに統合し,プロンプトによる性能向上に着目する。
文,用語/フレーズ,翻訳テンプレートなど,複数の種類の知識をNMTモデルに効果的に統合する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-08T02:55:00Z) - Cultural Adaptation of Recipes [24.825456977440616]
本稿では、中国料理と英語料理のレシピの翻訳と文化適応に関する新たな課題を紹介する。
この調査を支援するために、中国語と英語で書かれたレシピを自動的に組み合わせたユニークなデータセットであるCulturalRecipesを提示する。
我々は,GPT-4や他の大規模言語モデル,従来の機械翻訳,情報検索技術など,様々な手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-10-26T12:39:20Z) - Code-Switching with Word Senses for Pretraining in Neural Machine
Translation [107.23743153715799]
ニューラルネットワーク翻訳のための単語センス事前学習(WSP-NMT)について紹介する。
WSP-NMTは、知識ベースからの単語感覚情報を活用した多言語NMTモデルの事前学習のためのエンドツーエンドアプローチである。
実験の結果,全体の翻訳品質が大幅に向上した。
論文 参考訳(メタデータ) (2023-10-21T16:13:01Z) - Learning to Generalize to More: Continuous Semantic Augmentation for
Neural Machine Translation [50.54059385277964]
CsaNMT(Continuous Semantic Augmentation)と呼ばれる新しいデータ拡張パラダイムを提案する。
CsaNMTは各トレーニングインスタンスを、同じ意味の下で適切なリテラル式をカバーできる隣接領域で拡張する。
論文 参考訳(メタデータ) (2022-04-14T08:16:28Z) - PheMT: A Phenomenon-wise Dataset for Machine Translation Robustness on
User-Generated Contents [40.25277134147149]
日本語翻訳における特定の言語現象に対するMTシステムの堅牢性を評価するための新しいデータセットであるPheMTを提案する。
作成したデータセットを用いて行った実験では、社内モデルだけでなく、市販のシステムでも、特定の現象の存在によって大きく混乱していることが明らかになりました。
論文 参考訳(メタデータ) (2020-11-04T04:44:47Z) - Language Model Prior for Low-Resource Neural Machine Translation [85.55729693003829]
ニューラル翻訳モデル (TM) において, LM を事前に組み込む新しい手法を提案する。
正規化項を追加し、TMの出力分布をLMの下で予測可能とする。
2つの低リソース機械翻訳データセットの結果は、限られたモノリンガルデータであっても明らかな改善を示している。
論文 参考訳(メタデータ) (2020-04-30T16:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。