論文の概要: Leveraging LLM For Synchronizing Information Across Multilingual Tables
- arxiv url: http://arxiv.org/abs/2504.02559v2
- Date: Fri, 04 Apr 2025 19:18:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 10:47:02.618498
- Title: Leveraging LLM For Synchronizing Information Across Multilingual Tables
- Title(参考訳): 多言語テーブル間の情報同期のためのLLMの活用
- Authors: Siddharth Khincha, Tushar Kataria, Ankita Anand, Dan Roth, Vivek Gupta,
- Abstract要約: 本稿では,多言語情報同期のための大規模言語モデル (LLM) について検討する。
本稿では,古くなったウィキペディアのテーブルを更新する実世界のプロセスをシミュレートした,情報更新データセットを提案する。
この結果から,単一プロンプトアプローチが最適でない結果をもたらすことがしばしばあり,タスク分解戦略を導入することが示唆された。
- 参考スコア(独自算出の注目度): 45.821452282988794
- License:
- Abstract: The vast amount of online information today poses challenges for non-English speakers, as much of it is concentrated in high-resource languages such as English and French. Wikipedia reflects this imbalance, with content in low-resource languages frequently outdated or incomplete. Recent research has sought to improve cross-language synchronization of Wikipedia tables using rule-based methods. These approaches can be effective, but they struggle with complexity and generalization. This paper explores large language models (LLMs) for multilingual information synchronization, using zero-shot prompting as a scalable solution. We introduce the Information Updation dataset, simulating the real-world process of updating outdated Wikipedia tables, and evaluate LLM performance. Our findings reveal that single-prompt approaches often produce suboptimal results, prompting us to introduce a task decomposition strategy that enhances coherence and accuracy. Our proposed method outperforms existing baselines, particularly in Information Updation (1.79%) and Information Addition (20.58%), highlighting the model strength in dynamically updating and enriching data across architectures.
- Abstract(参考訳): 現在、多くのオンライン情報は、英語やフランス語などの高リソース言語に集中しているため、非英語話者にとって難題となっている。
Wikipediaはこの不均衡を反映しており、低リソース言語のコンテンツはしばしば時代遅れまたは不完全である。
近年、ルールベースの手法を用いてウィキペディアテーブルの言語間同期を改善する研究が進められている。
これらのアプローチは効果的であるが、複雑さと一般化に苦しむ。
本稿では,多言語情報同期のための大規模言語モデル (LLM) について検討し,ゼロショットプロンプトを拡張性のあるソリューションとして用いた。
情報更新データセットを導入し、古いウィキペディアテーブルを更新する実世界のプロセスをシミュレートし、LLMの性能を評価する。
その結果, 単一プロンプトアプローチは, 協調性や正確性を高めるタスク分解戦略を導入し, 最適以下の結果をもたらすことが判明した。
提案手法は既存のベースライン,特に情報更新(1.79%)と情報付加(20.58%)を上回り,動的に更新・拡張する際のモデル強度を強調した。
関連論文リスト
- Edit Once, Update Everywhere: A Simple Framework for Cross-Lingual Knowledge Synchronization in LLMs [60.12222055772508]
我々は、シンプルで実用的なSOTAレシピであるクロス言語知識民主主義編集(X-KDE)を提案する。
X-KDEは、支配的な言語から他の言語への知識の伝達を効果的に行うように設計されている。
Bi-ZsRE と MzsRE のベンチマーク実験により、X-KDE は言語間性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-02-20T15:32:31Z) - Enhancing Code Generation for Low-Resource Languages: No Silver Bullet [55.39571645315926]
大規模言語モデル(LLM)は、プログラミング言語の構文、意味論、使用パターンを学ぶために、大規模で多様なデータセットに依存している。
低リソース言語では、そのようなデータの限られた可用性は、モデルを効果的に一般化する能力を損なう。
本稿では,低リソース言語におけるLLMの性能向上のためのいくつかの手法の有効性を実証研究する。
論文 参考訳(メタデータ) (2025-01-31T12:23:28Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - ConVerSum: A Contrastive Learning-based Approach for Data-Scarce Solution of Cross-Lingual Summarization Beyond Direct Equivalents [4.029675201787349]
言語間の要約は自然言語処理の洗練された分野である。
高品質なCLSデータがない場合、CLSには実現可能な解決策がない。
コントラスト学習のパワーを活かしたCLSのための新しいデータ効率のアプローチであるConVerSumを提案する。
論文 参考訳(メタデータ) (2024-08-17T19:03:53Z) - Bridging the Language Gap: Dynamic Learning Strategies for Improving Multilingual Performance in LLMs [15.911445732909849]
大規模言語モデル(LLM)は様々なドメインに革命をもたらしたが、それでも非ラテン語スクリプトや低リソース言語に苦戦している。
本稿では,実行時にクエリ毎のプロンプト戦略,埋め込みモデル,LLMを最適化する,新しい動的学習手法を提案する。
提案手法では,事前学習モデルに比べて10~15%の言語性能向上と4倍のゲインを達成できた。
論文 参考訳(メタデータ) (2023-05-28T14:48:38Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Leveraging Advantages of Interactive and Non-Interactive Models for
Vector-Based Cross-Lingual Information Retrieval [12.514666775853598]
対話型モデルと非対話型モデルの利点を活用する新しいフレームワークを提案する。
非対話型アーキテクチャ上でモデルを構築できる半対話型機構を導入するが、各文書を関連付けられた多言語クエリと共にエンコードする。
本手法は,計算効率を維持しながら検索精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-03T03:03:19Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。