論文の概要: HLTCOE at TREC 2024 NeuCLIR Track
- arxiv url: http://arxiv.org/abs/2510.00143v1
- Date: Tue, 30 Sep 2025 18:16:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.191514
- Title: HLTCOE at TREC 2024 NeuCLIR Track
- Title(参考訳): TREC 2024 NeuCLIRトラックでのHLTCOE
- Authors: Eugene Yang, Dawn Lawrie, Orion Weller, James Mayfield,
- Abstract要約: HLTチームはPLAID、mT5リランカ、GPT-4リランカ、スコア融合、文書翻訳をTREC 2024 NeuCLIRトラックに適用した。
PLAIDには、Translate Distill(TD)、Generate Distill(GD)、Multi-lingual Translate-Distill(MTD)といった、さまざまなモデルとトレーニング技術が含まれています。
- 参考スコア(独自算出の注目度): 23.31564812384347
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The HLTCOE team applied PLAID, an mT5 reranker, GPT-4 reranker, score fusion, and document translation to the TREC 2024 NeuCLIR track. For PLAID we included a variety of models and training techniques -- Translate Distill (TD), Generate Distill (GD) and multi-lingual translate-distill (MTD). TD uses scores from the mT5 model over English MS MARCO query-document pairs to learn how to score query-document pairs where the documents are translated to match the CLIR setting. GD follows TD but uses passages from the collection and queries generated by an LLM for training examples. MTD uses MS MARCO translated into multiple languages, allowing experiments on how to batch the data during training. Finally, for report generation we experimented with system combination over different runs. One family of systems used either GPT-4o or Claude-3.5-Sonnet to summarize the retrieved results from a series of decomposed sub-questions. Another system took the output from those two models and verified/combined them with Claude-3.5-Sonnet. The other family used GPT4o and GPT3.5Turbo to extract and group relevant facts from the retrieved documents based on the decomposed queries. The resulting submissions directly concatenate the grouped facts to form the report and their documents of origin as the citations. The team submitted runs to all NeuCLIR tasks: CLIR and MLIR news tasks as well as the technical documents task and the report generation task.
- Abstract(参考訳): HLTCOEチームはPLAID、mT5リランカ、GPT-4リランカ、スコア融合、TREC 2024 NeuCLIRトラックへの文書翻訳を応用した。
PLAIDには、Translate Distill(TD)、Generate Distill(GD)、Multi-lingual Translation-distill(MTD)といった、さまざまなモデルとトレーニングテクニックが含まれていました。
TDは、英語のMS MARCOクエリドキュメントペアに対するmT5モデルのスコアを使用して、ドキュメントがCLIR設定にマッチするように変換されたクエリドキュメントペアのスコアの方法を学ぶ。
GDはTDに従うが、サンプルをトレーニングするためにLLMが生成したコレクションとクエリからのパスを使用する。
MTDはMS MARCOを複数の言語に翻訳し、トレーニング中にデータをバッチする方法の実験を可能にする。
最後に、レポート生成のために、異なる実行でシステムの組み合わせを実験しました。
ある系ではGPT-4oまたはClaude-3.5-Sonnetを用いて、一連の分解されたサブクエストから得られた結果を要約した。
別のシステムはこれらの2つのモデルから出力を受け取り、Claude-3.5-Sonnetで検証/組み合わせした。
他の家族は、GPT4oとGPT3.5Turboを使用して、分解されたクエリに基づいて、検索したドキュメントから関連する事実を抽出し、グループ化した。
結果の提出は、グループ化された事実を直接結合し、報告書とそれらの起源の文書を引用として作成する。
チームはすべてのNeuCLIRタスク、CLIRとMLIRニュースタスク、技術ドキュメントタスクとレポート生成タスクに実行を提出した。
関連論文リスト
- Retrieval-Augmented Machine Translation with Unstructured Knowledge [63.97706326080482]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を強化するために追加情報を導入する
機械翻訳(MT)では、従来の研究は通常、ペア化されたMTコーパスや知識グラフからコンテキスト内例を検索する。
本稿では,非構造化文書を用いた検索強化MTについて検討する。
論文 参考訳(メタデータ) (2024-12-05T17:00:32Z) - Distillation for Multilingual Information Retrieval [10.223578525761617]
Translate-Distillフレームワークは翻訳と蒸留を用いて言語間ニューラルデュアルエンコーダモデルを訓練する。
本研究はTranslate-Distillを拡張し,多言語情報検索のためのTranslate-Distill (MTD)を提案する。
MTDで訓練したColBERT-Xモデルは、訓練したith Multilingual Translate-Trainよりも、nDCG@20で5%から25%、MAPで15%から45%優れていた。
論文 参考訳(メタデータ) (2024-05-02T03:30:03Z) - MiniCheck: Efficient Fact-Checking of LLMs on Grounding Documents [62.02920842630234]
GPT-4レベルの性能を持つが400倍の低コストでファクトチェックモデルを構築する方法を示す。
GPT-4を用いて合成トレーニングデータを構築することで,現実的かつ困難な事実エラーの事例を生成する。
評価のために, ファクトチェックとグラウンドグラウンド化に関する最近の研究から得られたデータセットを, 新たなベンチマーク LLM-AggreFact に統一する。
論文 参考訳(メタデータ) (2024-04-16T17:59:10Z) - HLTCOE at TREC 2023 NeuCLIR Track [10.223578525761617]
HLTチームはPLAID、mT5リランカー、文書翻訳をTREC 2023 NeuCLIRトラックに適用した。
PLAIDには、ColBERT v2でリリースされた英語モデル、Translate-train(TT)、Translate Distill(TD)、Translate Multilingual-train(MTT)など、さまざまなモデルとトレーニングテクニックが含まれていました。
論文 参考訳(メタデータ) (2024-04-11T20:46:18Z) - PPTC Benchmark: Evaluating Large Language Models for PowerPoint Task
Completion [96.47420221442397]
我々はPowerPoint Task Completionベンチマークを導入し、大規模言語モデルがマルチターン・マルチモーダル命令を完了する能力を評価する。
また,ラベルAPIシーケンスではなく,予測ファイルに基づいてLCMが命令を終了するかどうかを評価するPTX-Match評価システムを提案する。
その結果、GPT-4はシングルターン対話テストにおいて75.1%の精度で他のLLMよりも優れていたが、セッション全体を完成させる際の課題に直面しており、セッションの精度は6%に過ぎなかった。
論文 参考訳(メタデータ) (2023-11-03T08:06:35Z) - Data-to-text Generation for Severely Under-Resourced Languages with
GPT-3.5: A Bit of Help Needed from Google Translate [5.632410663467911]
言語学習システムは、トレーニングデータに過小評価されている言語に関わるタスクにどのように対処するかを検討する。
これには、アイルランド語、マルタ語、ウェールズ語、ブルトン語のデータ・テキスト生成が含まれる。
ごくわずかのプロンプトは、リソース不足の言語への直接生成に効果があるが、英語でピボットすると違いは消えてしまう。
我々は、最先端のLLMを用いて、アウト・オブ・ザ・ボックスで、アン・リソース言語での優れた性能を達成できると結論付けた。
論文 参考訳(メタデータ) (2023-08-19T09:19:34Z) - Multilingual Machine Translation Systems from Microsoft for WMT21 Shared
Task [95.06453182273027]
本報告では、大規模多言語機械翻訳におけるWMT21共有タスクのためのMicrosoftの機械翻訳システムについて述べる。
共有タスクへのモデル提出はDeltaLMnotefooturlhttps://aka.ms/deltalmで行われました。
最終提出は自動評価基準で3トラックにランクインした。
論文 参考訳(メタデータ) (2021-11-03T09:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。