論文の概要: Efficient Multilingual Dialogue Processing via Translation Pipelines and Distilled Language Models
- arxiv url: http://arxiv.org/abs/2601.09059v1
- Date: Wed, 14 Jan 2026 01:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.212906
- Title: Efficient Multilingual Dialogue Processing via Translation Pipelines and Distilled Language Models
- Title(参考訳): 翻訳パイプラインと蒸留言語モデルによる効率的な多言語対話処理
- Authors: Santiago Martínez Novoa, Nicolás Rozo Fajardo, Diego Alejandro González Vargas, Nicolás Bedoya Figueroa,
- Abstract要約: 本稿では,NLPAI4Health 2025共有タスク用に開発された,Kl33n3xの多言語対話要約と質問応答システムについて述べる。
このアプローチでは、Indic言語から英語への前方翻訳、2.55Bパラメータの蒸留言語モデルを用いたマルチタスクテキスト生成、ソース言語への逆変換という3段階のパイプラインを採用している。
このシステムは、マラソン(86.7% QnA)、タミル(86.7% QnA)、ヒンディー(80.0% QnA)など、競技のタスクで強い勝利率を達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents team Kl33n3x's multilingual dialogue summarization and question answering system developed for the NLPAI4Health 2025 shared task. The approach employs a three-stage pipeline: forward translation from Indic languages to English, multitask text generation using a 2.55B parameter distilled language model, and reverse translation back to source languages. By leveraging knowledge distillation techniques, this work demonstrates that compact models can achieve highly competitive performance across nine languages. The system achieved strong win rates across the competition's tasks, with particularly robust performance on Marathi (86.7% QnA), Tamil (86.7% QnA), and Hindi (80.0% QnA), demonstrating the effectiveness of translation-based approaches for low-resource language processing without task-specific fine-tuning.
- Abstract(参考訳): 本稿では,NLPAI4Health 2025共有タスク用に開発された,Kl33n3xの多言語対話要約と質問応答システムについて述べる。
このアプローチでは、Indic言語から英語への前方翻訳、2.55Bパラメータの蒸留言語モデルを用いたマルチタスクテキスト生成、ソース言語への逆変換という3段階のパイプラインを採用している。
この研究は、知識蒸留技術を活用することで、コンパクトモデルが9つの言語で高い競争力を発揮することを示す。
このシステムは、特にマラーティー (86.7% QnA)、タミル (86.7% QnA)、ヒンディー (80.0% QnA) での堅牢なパフォーマンスを達成し、タスク固有の微調整なしに低リソース言語処理に対する翻訳ベースのアプローチの有効性を実証した。
関連論文リスト
- Cross-lingual transfer of multilingual models on low resource African Languages [0.20793001310272596]
単一の言語で訓練されたモノリンガルモデルは、ターゲット言語のニュアンスをよりよく捉えることができる。
AfriBERTは微調整後に最高88.3%の言語間精度を達成した。
BiGRUは83.3%の精度で最高のパフォーマンスのニューラルモデルとして登場した。
論文 参考訳(メタデータ) (2024-09-17T08:05:40Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - KInITVeraAI at SemEval-2023 Task 3: Simple yet Powerful Multilingual
Fine-Tuning for Persuasion Techniques Detection [0.0]
本稿では,サブタスク3のSemEval 2023タスク3に対して,説得技術検出専用の最高のパフォーマンスソリューションを提案する。
入力データの多言語的特性が高く,23の予測ラベルが多数存在するため,学習前のトランスフォーマベース言語モデルに微調整を施した。
論文 参考訳(メタデータ) (2023-04-24T09:06:43Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Multitask Finetuning for Improving Neural Machine Translation in Indian
Languages [0.0]
トランスフォーマーベースの言語モデルは、自然言語処理のすべての領域で印象的な結果をもたらしています。
本稿では,バイリンガル機械翻訳タスクと補助的な因果言語モデリングタスクを組み合わせたマルチタスクファインタニング手法を提案する。
論文 参考訳(メタデータ) (2021-12-03T06:43:56Z) - Cross-lingual Transfer for Speech Processing using Acoustic Language
Similarity [81.51206991542242]
言語間の移動は、このデジタル分割を橋渡しする魅力的な方法を提供する。
現在の言語間アルゴリズムは、テキストベースのタスクや音声関連タスクを低リソース言語で実現している。
本稿では,数百の言語をまたがる音響的言語間移動対を効率的に同定する言語類似性手法を提案する。
論文 参考訳(メタデータ) (2021-11-02T01:55:17Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。