論文の概要: Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding
- arxiv url: http://arxiv.org/abs/2305.14232v1
- Date: Tue, 23 May 2023 16:47:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 14:33:04.202622
- Title: Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding
- Title(参考訳): 科学文献理解のためのマルチタスクコントラスト学習モデル
- Authors: Yu Zhang, Hao Cheng, Zhihong Shen, Xiaodong Liu, Ye-Yi Wang, Jianfeng
Gao
- Abstract要約: 事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
- 参考スコア(独自算出の注目度): 75.70578169485668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific literature understanding tasks have gained significant attention
due to their potential to accelerate scientific discovery. Pre-trained language
models (LMs) have shown effectiveness in these tasks, especially when tuned via
contrastive learning. However, jointly utilizing pre-training data across
multiple heterogeneous tasks (e.g., extreme classification, citation
prediction, and literature search) remains largely unexplored. To bridge this
gap, we propose a multi-task contrastive learning framework, SciMult, with a
focus on facilitating common knowledge sharing across different scientific
literature understanding tasks while preventing task-specific skills from
interfering with each other. To be specific, we explore two techniques --
task-aware specialization and instruction tuning. The former adopts a
Mixture-of-Experts Transformer architecture with task-aware sub-layers; the
latter prepends task-specific instructions to the input text so as to produce
task-aware outputs. Extensive experiments on a comprehensive collection of
benchmark datasets verify the effectiveness of our task-aware specialization
strategy in various tasks, where we outperform state-of-the-art scientific LMs.
- Abstract(参考訳): 科学文献理解タスクは、科学的発見を加速する可能性から、大きな注目を集めている。
事前訓練された言語モデル(LM)は、特に対照的な学習によって調整された場合、これらのタスクにおいて有効性を示す。
しかしながら、複数の異種タスク(極端な分類、引用予測、文学検索など)で事前トレーニングされたデータを共同利用することは、ほとんど未定である。
このギャップを埋めるために,タスク固有のスキルが相互に干渉することを防ぐとともに,科学文献理解タスク間の共通知識共有を容易にするマルチタスクコントラスト学習フレームワークSciMultを提案する。
具体的には、タスク対応の特殊化と命令のチューニングという2つのテクニックを探求する。
前者はタスク対応サブレイヤを備えたMixture-of-Experts Transformerアーキテクチャを採用し、後者はタスク対応の出力を生成するために入力テキストにタスク固有の命令をプリペンドする。
ベンチマークデータセットの包括的なコレクションに関する広範な実験は、様々なタスクにおけるタスクアウェア特殊化戦略の有効性を検証します。
関連論文リスト
- MMSci: A Dataset for Graduate-Level Multi-Discipline Multimodal Scientific Understanding [59.41495657570397]
このデータセットには、スキーマ図、シミュレーション画像、マクロ/顕微鏡写真、実験的可視化などの図が含まれている。
我々は,6つのプロプライエタリモデルと10以上のオープンソースモデルを評価し,科学的フィギュアキャプションと複数選択質問のベンチマークを開発した。
データセットとベンチマークは、さらなる研究をサポートするためにリリースされる予定だ。
論文 参考訳(メタデータ) (2024-07-06T00:40:53Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - ULTRA-DP: Unifying Graph Pre-training with Multi-task Graph Dual Prompt [67.8934749027315]
本稿では,タスク識別と位置識別をGNNに注入する,グラフハイブリッド事前学習のための統合フレームワークを提案する。
また,約$k$-nearest隣人のグループに基づいた,新しい事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:11:13Z) - Cross-Task Knowledge Distillation in Multi-Task Recommendation [41.62428191434233]
マルチタスク学習は、さまざまなタイプのユーザフィードバックを予測するために、現実世界のレコメンデータで広く利用されている。
本稿では,3つの手順からなるクロスタスク知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-20T16:15:19Z) - Learning Multiple Dense Prediction Tasks from Partially Annotated Data [41.821234589075445]
マルチタスク部分教師付き学習(multi-task part-supervised learning)と呼ぶ部分注釈付きデータ上で,複数の密接な予測タスクを共同で学習する。
本稿では,タスク関係を利用したマルチタスク学習手法を提案する。
提案手法は,既存の半教師付き学習手法や関連手法を3つの標準ベンチマークで上回り,非ラベルなタスクで効果的に活用できることを厳密に実証する。
論文 参考訳(メタデータ) (2021-11-29T19:03:12Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z) - Multi-Task Learning for Dense Prediction Tasks: A Survey [87.66280582034838]
マルチタスク学習(MTL)技術は、性能、計算、メモリフットプリントに関する有望な結果を示している。
我々は、コンピュータビジョンにおけるMLLのための最先端のディープラーニングアプローチについて、よく理解された視点を提供する。
論文 参考訳(メタデータ) (2020-04-28T09:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。