論文の概要: CMT in TREC-COVID Round 2: Mitigating the Generalization Gaps from Web
to Special Domain Search
- arxiv url: http://arxiv.org/abs/2011.01580v1
- Date: Tue, 3 Nov 2020 09:10:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 05:28:03.992339
- Title: CMT in TREC-COVID Round 2: Mitigating the Generalization Gaps from Web
to Special Domain Search
- Title(参考訳): trec-covid ラウンド2: web から特殊ドメイン検索への一般化ギャップの緩和
- Authors: Chenyan Xiong, Zhenghao Liu, Si Sun, Zhuyun Dai, Kaitao Zhang, Shi Yu,
Zhiyuan Liu, Hoifung Poon, Jianfeng Gao and Paul Bennett
- Abstract要約: 本稿では,特殊領域適応問題を緩和する探索システムを提案する。
このシステムは、ドメイン適応型事前学習と数発の学習技術を利用して、ニューラルネットワークがドメインの不一致を軽減するのに役立つ。
本システムでは,TREC-COVID タスクの第2ラウンドにおいて,非マニュアル実行において最善を尽くす。
- 参考スコア(独自算出の注目度): 89.48123965553098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural rankers based on deep pretrained language models (LMs) have been shown
to improve many information retrieval benchmarks. However, these methods are
affected by their the correlation between pretraining domain and target domain
and rely on massive fine-tuning relevance labels. Directly applying pretraining
methods to specific domains may result in suboptimal search quality because
specific domains may have domain adaption problems, such as the COVID domain.
This paper presents a search system to alleviate the special domain adaption
problem. The system utilizes the domain-adaptive pretraining and few-shot
learning technologies to help neural rankers mitigate the domain discrepancy
and label scarcity problems. Besides, we also integrate dense retrieval to
alleviate traditional sparse retrieval's vocabulary mismatch obstacle. Our
system performs the best among the non-manual runs in Round 2 of the TREC-COVID
task, which aims to retrieve useful information from scientific literature
related to COVID-19. Our code is publicly available at
https://github.com/thunlp/OpenMatch.
- Abstract(参考訳): 深層事前学習言語モデル(LM)に基づくニューラルネットワークローカは,多くの情報検索ベンチマークを改善することが示されている。
しかし,これらの手法は,事前学習ドメインと対象ドメインの相関関係の影響を受け,大規模な微調整関連ラベルに依存している。
特定のドメインに事前訓練手法を直接適用すると、COVIDドメインのようなドメイン適応の問題があるため、検索品質が最適以下になる可能性がある。
本稿では,特殊領域適応問題を緩和する探索システムを提案する。
このシステムは、ドメイン適応型事前学習と数発の学習技術を利用して、ニューラルネットワークがドメインの不一致を緩和し、ラベル不足の問題を緩和する。
また,従来の分散検索の語彙ミスマッチを緩和するために,高密度検索を統合する。
本システムは,新型コロナウイルスに関する学術文献から有用な情報を取得することを目的として,TREC-COVIDタスクの第2ラウンドの非マニュアル実行の中で,最善を尽くしている。
私たちのコードはhttps://github.com/thunlp/OpenMatch.comで公開されています。
関連論文リスト
- Unsupervised Domain Adaptation for Anatomical Landmark Detection [5.070344284426738]
非教師なし領域適応(UDA)の設定下での解剖学的ランドマーク検出のための新しい枠組みを提案する。
このフレームワークは、自己学習とドメインの敵対的学習を活用して、適応中のドメインギャップに対処する。
脳波および肺のランドマーク検出実験は,領域間隙を広いマージンで低減し,他のUDA法より一貫して優れる手法の有効性を示した。
論文 参考訳(メタデータ) (2023-08-25T10:22:13Z) - Multi-scale Feature Alignment for Continual Learning of Unlabeled
Domains [3.9498537297431167]
生成的特徴駆動のイメージリプレイとデュアル目的判別器は、リプレイのための現実的な特徴を持つ画像の生成を可能にする。
本稿では,提案手法の構成要素について詳細なアブレーション実験を行い,非教師付きパッチベースセグメンテーションタスクに対する連続的UDA法の適用可能性を示す。
論文 参考訳(メタデータ) (2023-02-02T18:19:01Z) - Domain Adaptation from Scratch [24.612696638386623]
我々は、NLPを機密ドメインに拡張するために欠かせない、新しい学習セットである「スクラッチからのドメイン適応」を提示する。
この設定では、トレーニングされたモデルがセンシティブなターゲットドメイン上でうまく動作するように、ソースドメインの集合からのデータを効率的にアノテートすることを目的としている。
本研究は、データ選択やドメイン適応アルゴリズムからアクティブな学習パラダイムまで、この挑戦的な設定に対するいくつかのアプローチを比較した。
論文 参考訳(メタデータ) (2022-09-02T05:55:09Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Universal Cross-Domain Retrieval: Generalizing Across Classes and
Domains [27.920212868483702]
SnMpNetは、テスト中に遭遇した未確認のクラスとドメインを考慮に入れた2つの新しい損失を含む。
具体的には,目に見えるクラスと目に見えないクラスの知識ギャップを埋めるために,セマンティック・ネイバーフッド・ロスを導入した。
また、画像レベルでのミックスアップに基づく監視や、ミックスチャー予測損失を伴うトレーニング用データのセマンティックレベルも導入する。
論文 参考訳(メタデータ) (2021-08-18T19:21:04Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。