論文の概要: Adapter Fusion for Multilingual Text2Cypher with Linear and Learned Gating
- arxiv url: http://arxiv.org/abs/2601.16097v1
- Date: Thu, 22 Jan 2026 16:46:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.655674
- Title: Adapter Fusion for Multilingual Text2Cypher with Linear and Learned Gating
- Title(参考訳): 線形学習ゲーティングによる多言語Text2Cypherのアダプタフュージョン
- Authors: Makbule Gulcin Ozsoy,
- Abstract要約: 本研究では,多言語対応のText2Cypherについて検討する。
言語固有のLoRAアダプタを英語、スペイン語、トルコ語向けにトレーニングし、統一線形マージや学習融合を通じてそれらを組み合わせます。
- 参考スコア(独自算出の注目度): 0.20305676256390937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models enable users to access database using natural language interfaces using tools like Text2SQL, Text2SPARQL, and Text2Cypher, which translate user questions into structured database queries. While these systems improve database accessibility, most research focuses on English with limited multilingual support. This work investigates a scalable multilingual Text2Cypher, aiming to support new languages without re-running full fine-tuning, avoiding manual hyper-parameter tuning, and maintaining performance close to joint multilingual fine-tuning. We train language-specific LoRA adapters for English, Spanish, and Turkish and combined them via uniform linear merging or learned fusion MLP with dynamic gating. Experimental results show that the fusion MLP recovers around 75\% of the accuracy gains from joint multilingual fine-tuning while requiring only a smaller subset of the data, outperforming linear merging across all three languages. This approach enables incremental language expansion to new languages by requiring only one LoRA adapter and a lightweight MLP retraining. Learned adapter fusion offers a practical alternative to expensive joint fine-tuning, balancing performance, data efficiency, and scalability for multilingual Text2Cypher task.
- Abstract(参考訳): 大きな言語モデルにより、ユーザはText2SQL、Text2SPARQL、Text2Cypherといったツールを使用して、自然言語インターフェースを使用してデータベースにアクセスすることができる。
これらのシステムによってデータベースのアクセシビリティが向上する一方で、ほとんどの研究は多言語サポートが限定された英語に焦点を当てている。
本研究はスケーラブルな多言語対応Text2Cypherについて検討し,完全微調整を行わずに新しい言語をサポートすること,手動ハイパーパラメータチューニングを回避すること,関節型多言語微調整に近い性能を維持することを目的とした。
言語固有のLoRAアダプタを英語、スペイン語、トルコ語向けに訓練し、それらを一様線形マージまたは動的ゲーティングによる学習融合MLPを介して組み合わせる。
実験結果から,MLPは結合多言語微調整の精度の約75%を回復する一方,データのサブセットは小さく,3言語すべてで線形マージに優れていた。
このアプローチにより、LoRAアダプタを1つだけ必要とし、軽量なMLP再トレーニングを行うことで、新たな言語へのインクリメンタル言語拡張が可能になる。
Learned Adapter fusionは、多言語Text2Cypherタスクのための高価なジョイント微調整、パフォーマンスのバランス、データ効率、スケーラビリティに代わる実用的な代替手段を提供する。
関連論文リスト
- Text2Cypher Across Languages: Evaluating and Finetuning LLMs [0.17188280334580197]
本論文では,複数の言語を対象としたText2Cypherタスクにおける基礎的および微調整LLMの性能について検討する。
英語の質問をスペイン語とトルコ語に翻訳することで、多言語データセットを作成し、リリースします。
標準化されたプロンプトとメトリクスを用いて、いくつかの基礎モデルを評価し、一貫したパフォーマンスパターンを観察する。
論文 参考訳(メタデータ) (2025-06-26T16:31:10Z) - Middle-Layer Representation Alignment for Cross-Lingual Transfer in Fine-Tuned LLMs [20.756383171892608]
中層は言語間アライメントの可能性が強い。
スロットフィリング、機械翻訳、構造化テキスト生成の実験は、言語間転送における一貫した改善を示している。
我々は、個別に訓練されたアライメントモジュールを既存のタスク固有のモジュールとマージすることができ、完全に再トレーニングすることなく言語間の機能を改善することを示す。
論文 参考訳(メタデータ) (2025-02-20T18:45:43Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。