論文の概要: Adapter Fusion for Multilingual Text2Cypher with Linear and Learned Gating
- arxiv url: http://arxiv.org/abs/2601.16097v1
- Date: Thu, 22 Jan 2026 16:46:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.655674
- Title: Adapter Fusion for Multilingual Text2Cypher with Linear and Learned Gating
- Title(参考訳): 線形学習ゲーティングによる多言語Text2Cypherのアダプタフュージョン
- Authors: Makbule Gulcin Ozsoy,
- Abstract要約: 本研究では,多言語対応のText2Cypherについて検討する。
言語固有のLoRAアダプタを英語、スペイン語、トルコ語向けにトレーニングし、統一線形マージや学習融合を通じてそれらを組み合わせます。
- 参考スコア(独自算出の注目度): 0.20305676256390937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models enable users to access database using natural language interfaces using tools like Text2SQL, Text2SPARQL, and Text2Cypher, which translate user questions into structured database queries. While these systems improve database accessibility, most research focuses on English with limited multilingual support. This work investigates a scalable multilingual Text2Cypher, aiming to support new languages without re-running full fine-tuning, avoiding manual hyper-parameter tuning, and maintaining performance close to joint multilingual fine-tuning. We train language-specific LoRA adapters for English, Spanish, and Turkish and combined them via uniform linear merging or learned fusion MLP with dynamic gating. Experimental results show that the fusion MLP recovers around 75\% of the accuracy gains from joint multilingual fine-tuning while requiring only a smaller subset of the data, outperforming linear merging across all three languages. This approach enables incremental language expansion to new languages by requiring only one LoRA adapter and a lightweight MLP retraining. Learned adapter fusion offers a practical alternative to expensive joint fine-tuning, balancing performance, data efficiency, and scalability for multilingual Text2Cypher task.
- Abstract(参考訳): 大きな言語モデルにより、ユーザはText2SQL、Text2SPARQL、Text2Cypherといったツールを使用して、自然言語インターフェースを使用してデータベースにアクセスすることができる。
これらのシステムによってデータベースのアクセシビリティが向上する一方で、ほとんどの研究は多言語サポートが限定された英語に焦点を当てている。
本研究はスケーラブルな多言語対応Text2Cypherについて検討し,完全微調整を行わずに新しい言語をサポートすること,手動ハイパーパラメータチューニングを回避すること,関節型多言語微調整に近い性能を維持することを目的とした。
言語固有のLoRAアダプタを英語、スペイン語、トルコ語向けに訓練し、それらを一様線形マージまたは動的ゲーティングによる学習融合MLPを介して組み合わせる。
実験結果から,MLPは結合多言語微調整の精度の約75%を回復する一方,データのサブセットは小さく,3言語すべてで線形マージに優れていた。
このアプローチにより、LoRAアダプタを1つだけ必要とし、軽量なMLP再トレーニングを行うことで、新たな言語へのインクリメンタル言語拡張が可能になる。
Learned Adapter fusionは、多言語Text2Cypherタスクのための高価なジョイント微調整、パフォーマンスのバランス、データ効率、スケーラビリティに代わる実用的な代替手段を提供する。
関連論文リスト
- Text2Cypher Across Languages: Evaluating and Finetuning LLMs [0.17188280334580197]
本論文では,複数の言語を対象としたText2Cypherタスクにおける基礎的および微調整LLMの性能について検討する。
英語の質問をスペイン語とトルコ語に翻訳することで、多言語データセットを作成し、リリースします。
標準化されたプロンプトとメトリクスを用いて、いくつかの基礎モデルを評価し、一貫したパフォーマンスパターンを観察する。
論文 参考訳(メタデータ) (2025-06-26T16:31:10Z) - Just Go Parallel: Improving the Multilingual Capabilities of Large Language Models [59.21082876068122]
大規模言語モデル(LLM)は、並列データに対して明示的に訓練されることなく、印象的な翻訳能力を実証している。
近年の研究では、トレーニングデータに付随するバイリンガル信号が原因であることが示唆されている。
多言語エンコーダベースおよびエンコーダデコーダ言語モデルの多言語能力を高めるために,並列データの有用性を最大化する様々な手法が提案されている。
論文 参考訳(メタデータ) (2025-06-16T02:21:15Z) - Middle-Layer Representation Alignment for Cross-Lingual Transfer in Fine-Tuned LLMs [20.756383171892608]
中層は言語間アライメントの可能性が強い。
スロットフィリング、機械翻訳、構造化テキスト生成の実験は、言語間転送における一貫した改善を示している。
我々は、個別に訓練されたアライメントモジュールを既存のタスク固有のモジュールとマージすることができ、完全に再トレーニングすることなく言語間の機能を改善することを示す。
論文 参考訳(メタデータ) (2025-02-20T18:45:43Z) - MultiTEND: A Multilingual Benchmark for Natural Language to NoSQL Query Translation [6.142748564599452]
本稿では,自然言語によるクエリ生成のためのマルチ言語ベンチマークとして,MultiTENDを紹介する。
自然言語を様々な言語構造にまたがるクエリに翻訳する際の課題を分析する。
並列リンクプロセスを通じてクエリ生成ギャップに多言語入力をブリッジする新しいフレームワークであるMultiLinkを紹介する。
論文 参考訳(メタデータ) (2025-02-16T07:12:47Z) - LUSIFER: Language Universal Space Integration for Enhanced Multilingual Embeddings with Large Language Models [89.13128402847943]
LUSIFERは,LLMをベースとした多言語タスクの埋め込みモデルに,多言語監視を必要とせずに適用可能なゼロショット方式である。
LUSIFERのアーキテクチャは多言語エンコーダを組み、言語ユニバーサル学習者として機能し、埋め込み固有のタスクに最適化されたLLMベースの埋め込みモデルと組み合わせている。
5つの主要な埋め込みタスク、123の多様なデータセット、14言語にわたるカバレッジを含む新しいベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-01T15:43:07Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Continual Learning in Multilingual NMT via Language-Specific Embeddings [92.91823064720232]
共有語彙を小さな言語固有の語彙に置き換え、新しい言語の並列データに新しい埋め込みを微調整する。
元のモデルのパラメータは変更されていないため、初期言語の性能は劣化しない。
論文 参考訳(メタデータ) (2021-10-20T10:38:57Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。