論文の概要: THUIR2 at NTCIR-16 Session Search (SS) Task
- arxiv url: http://arxiv.org/abs/2307.00250v1
- Date: Sat, 1 Jul 2023 06:55:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-05 17:14:40.219167
- Title: THUIR2 at NTCIR-16 Session Search (SS) Task
- Title(参考訳): THUIR2 - NTCIR-16 Session Search (SS) Task
- Authors: Weihang Su, Xiangsheng Li, Yiqun Liu, Min Zhang, Shaoping Ma
- Abstract要約: FOSSサブタスクでは、学習からランク、微調整による事前学習言語モデルを用いて5つの実行を送信します。
我々は,事前学習した言語モデルをアドホックなデータとセッション情報で微調整し,学習からランクまでの手法で組み立てた。
POSSサブタスクでは,予備評価において最高の性能が得られる組立モデルを用いた。
- 参考スコア(独自算出の注目度): 33.30413798358361
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our team(THUIR2) participated in both FOSS and POSS subtasks of the NTCIR-161
Session Search (SS) Task. This paper describes our approaches and results. In
the FOSS subtask, we submit five runs using learning-to-rank and fine-tuned
pre-trained language models. We fine-tuned the pre-trained language model with
ad-hoc data and session information and assembled them by a learning-to-rank
method. The assembled model achieves the best performance among all
participants in the preliminary evaluation. In the POSS subtask, we used an
assembled model which also achieves the best performance in the preliminary
evaluation.
- Abstract(参考訳): 我々のチームは NTCIR-161 Session Search (SS) Task の FOSS サブタスクと POSS サブタスクの両方に参加した。
本稿では,我々のアプローチと結果について述べる。
FOSSサブタスクでは、学習からランク、微調整による事前学習言語モデルを用いて5回の実行を行う。
事前学習した言語モデルをアドホックなデータとセッション情報で微調整し,学習からランクまでの手法で組み立てた。
組み合わされたモデルは、予備評価において、すべての参加者の中で最高のパフォーマンスを達成する。
POSSサブタスクでは,予備評価において最高の性能が得られる組立モデルを用いた。
関連論文リスト
- Automatic Pruning of Fine-tuning Datasets for Transformer-based Language Models [13.340191056212692]
微調整タスクのトレーニングセットを対象とした自動データセット解析手法を提案する。
提案手法は,データセットのプルーニングに使用する複数のサブセットを提供する。
5つの下流タスクと2つの言語モデルの実験は、平均して、優勝チケットのサブセットを微調整すると、モデルの評価性能が0.1%上昇することを示している。
論文 参考訳(メタデータ) (2024-07-11T22:46:18Z) - A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - NOWJ1@ALQAC 2023: Enhancing Legal Task Performance with Classic
Statistical Models and Pre-trained Language Models [4.329463429688995]
本稿では,NOWJ1チームによるALQAC(Automated Legal Question Answering Competition)2023について述べる。
文書検索タスクでは、入力制限を克服し、学習からランクまでの手法を適用して様々なモデルの特徴を統合する。
我々は,従来の統計モデルと事前学習型言語モデルの両方を利用して,各サブタスクに対して異なるシステムを開発するために,最先端のモデルを組み込んだ。
論文 参考訳(メタデータ) (2023-09-16T18:32:15Z) - Using contextual sentence analysis models to recognize ESG concepts [8.905370601886112]
本稿では,ラ・ロシェル大学のTrading Central LabsとL3i研究所のFinSim-4評価キャンペーンの2つのサブタスクへの参加について要約する。
第1のサブタスクは「Fortia ESG分類」を新しい辞書エントリで強化することを目的としており、第2のタスクは、ESGに関連する要因に関して文を「持続可能」または「持続不可能」に分類することを目的としている。
論文 参考訳(メタデータ) (2022-07-04T13:33:21Z) - Prompt-based Pre-trained Model for Personality and Interpersonal
Reactivity Prediction [19.288384399961867]
本稿では、LingJingチームによる主観性・感性・ソーシャルメディア分析に関するワークショップ(WASSA)2022におけるパーソナリティ予測(PER)と反応性指標予測(IRI)の共有タスクについて述べる。
論文 参考訳(メタデータ) (2022-03-23T15:22:34Z) - Self-Supervised Learning for speech recognition with Intermediate layer
supervision [52.93758711230248]
自己教師付き学習(ILS-SSL)のための中間層スーパービジョンを提案する。
ILS-SSLは、中間層にSSL損失を追加することで、可能な限りコンテンツ情報に集中させます。
LibriSpeech の他のテストセットの実験により,本手法は HuBERT を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T10:45:05Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - RADDLE: An Evaluation Benchmark and Analysis Platform for Robust
Task-oriented Dialog Systems [75.87418236410296]
我々はraddleベンチマーク、コーパスのコレクション、および様々なドメインのモデルのパフォーマンスを評価するためのツールを紹介します。
RADDLEは強力な一般化能力を持つモデルを好んで奨励するように設計されている。
先行学習と微調整に基づく最近の最先端システムの評価を行い,異種ダイアログコーパスに基づく基礎的な事前学習が,ドメインごとの個別モデルをトレーニングするよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-29T08:58:49Z) - BUT-FIT at SemEval-2020 Task 4: Multilingual commonsense [1.433758865948252]
本稿では,SemEval 2020 Task 4 - Commonsense Validation and ExplanationにおけるBUT-FITチームの作業について述べる。
サブタスクAとBでは、事前訓練された言語表現モデル(ALBERT)とデータ拡張に基づいている。
我々は、多言語モデルと機械翻訳データセットを用いて、別の言語であるチェコ語のタスクを解く実験を行った。
強い機械翻訳システムでは, 精度の低下を少なく抑えながら, 他言語で使用することができることを示す。
論文 参考訳(メタデータ) (2020-08-17T12:45:39Z) - A Tailored Pre-Training Model for Task-Oriented Dialog Generation [60.05269529832447]
タスク指向対話システムのための事前訓練された役割交替言語モデル(PRAL)を提案する。
13個の既存のデータセットをクリーニングすることでタスク指向の対話事前学習データセットを導入する。
その結果,PRALは最先端の手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2020-04-24T09:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。