論文の概要: Multi-Relational Graph based Heterogeneous Multi-Task Learning in
Community Question Answering
- arxiv url: http://arxiv.org/abs/2110.02059v1
- Date: Sat, 4 Sep 2021 03:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-10 11:43:04.296273
- Title: Multi-Relational Graph based Heterogeneous Multi-Task Learning in
Community Question Answering
- Title(参考訳): コミュニティ質問応答におけるマルチリレーショナルグラフに基づく異種マルチタスク学習
- Authors: Zizheng Lin, Haowen Ke, Ngo-Yin Wong, Jiaxin Bai, Yangqiu Song, Huan
Zhao, Junpeng Ye
- Abstract要約: 我々はHMTGIN(Heterogeneous Multi-Task Graph Isomorphism Network)と呼ばれるマルチリレーショナルグラフに基づくマルチタスク学習モデルを開発する。
各トレーニングフォワードパスでは、HMTGINは入力されたCQAフォーラムグラフをグラフ同型ネットワークの拡張によって埋め込み、接続をスキップする。
評価において、埋め込みは異なるタスク固有の出力層間で共有され、対応する予測を行う。
- 参考スコア(独自算出の注目度): 28.91133131424694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various data mining tasks have been proposed to study Community Question
Answering (CQA) platforms like Stack Overflow. The relatedness between some of
these tasks provides useful learning signals to each other via Multi-Task
Learning (MTL). However, due to the high heterogeneity of these tasks, few
existing works manage to jointly solve them in a unified framework. To tackle
this challenge, we develop a multi-relational graph based MTL model called
Heterogeneous Multi-Task Graph Isomorphism Network (HMTGIN) which efficiently
solves heterogeneous CQA tasks. In each training forward pass, HMTGIN embeds
the input CQA forum graph by an extension of Graph Isomorphism Network and skip
connections. The embeddings are then shared across all task-specific output
layers to compute respective losses. Moreover, two cross-task constraints based
on the domain knowledge about tasks' relationships are used to regularize the
joint learning. In the evaluation, the embeddings are shared among different
task-specific output layers to make corresponding predictions. To the best of
our knowledge, HMTGIN is the first MTL model capable of tackling CQA tasks from
the aspect of multi-relational graphs. To evaluate HMTGIN's effectiveness, we
build a novel large-scale multi-relational graph CQA dataset with over two
million nodes from Stack Overflow. Extensive experiments show that: $(1)$
HMTGIN is superior to all baselines on five tasks; $(2)$ The proposed MTL
strategy and cross-task constraints have substantial advantages.
- Abstract(参考訳): Stack Overflowのようなコミュニティ質問回答(CQA)プラットフォームを研究するために、さまざまなデータマイニングタスクが提案されている。
これらのタスクの関連性は、マルチタスク学習(mtl)を通じて互いに有用な学習シグナルを提供する。
しかし、これらのタスクの多様性が高いため、統一されたフレームワークでそれらを共同で解決できる既存の作品はほとんどない。
この課題に対処するため、異種CQAタスクを効率的に解決するHMTGIN(Heterogeneous Multi-Task Graph Isomorphism Network)と呼ばれるマルチリレーショナルグラフベースのMTLモデルを開発した。
各トレーニングフォワードパスでは、HMTGINは入力されたCQAフォーラムグラフをグラフ同型ネットワークの拡張によって埋め込み、接続をスキップする。
埋め込みはタスク固有の出力層間で共有され、それぞれの損失を計算する。
さらに、タスクの関係に関するドメイン知識に基づく2つのクロスタスク制約を用いて、共同学習を規則化する。
評価では、埋め込みは異なるタスク固有の出力層間で共有され、対応する予測を行う。
我々の知る限りでは、HMTGINはマルチリレーショナルグラフの側面からCQAタスクに取り組むことができる最初のMTLモデルである。
HMTGINの有効性を評価するため,Stack Overflowから200万ノードを超える大規模マルチリレーショナルグラフCQAデータセットを構築した。
拡張実験により、(1)$ HMTGINは5つのタスクのすべてのベースラインよりも優れており、(2)$ MTL戦略とクロスタスク制約は大きな利点を持っている。
関連論文リスト
- InLINE: Inner-Layer Information Exchange for Multi-task Learning on Heterogeneous Graphs [13.204120407041195]
不均一グラフは、実世界のシナリオで複雑なデータをモデル化するための重要な構造である。
本稿では,各グラフ層内の微細な情報交換を容易にする内層情報交換モデルを提案する。
我々のモデルは、負の転送によって生じる特定のタスクの大幅な性能低下を効果的に軽減する。
論文 参考訳(メタデータ) (2024-10-29T14:46:49Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Boosting Multitask Learning on Graphs through Higher-Order Task Affinities [17.70434437597516]
与えられたグラフ上のノードラベルの予測は、コミュニティ検出や分子グラフ予測など、多くのアプリケーションにおいて広く研究されている問題である。
本稿では,グラフ上の複数のノードラベリング関数を同時に予測し,マルチタスク学習の観点からこの問題を再考する。
我々は高次タスク親和性尺度に基づいて,タスクをグループにクラスタリングするアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-06-24T15:53:38Z) - Relational Multi-Task Learning: Modeling Relations between Data and
Tasks [84.41620970886483]
マルチタスク学習における主要な前提は、推論時にモデルが与えられたデータポイントにのみアクセスできるが、他のタスクからのデータポイントのラベルにはアクセスできないことである。
ここでは、補助的なタスクからデータポイントラベルを活用してより正確な予測を行う、新しいリレーショナルマルチタスク学習環境を提案する。
私たちはMetaLinkを開発し、そこではデータポイントとタスクを接続するナレッジグラフを構築します。
論文 参考訳(メタデータ) (2023-03-14T07:15:41Z) - Provable Pathways: Learning Multiple Tasks over Multiple Paths [31.43753806123382]
複数の経路上の複数のタスクを学習する経験的リスク最小化問題に対する新しい一般化境界を開発する。
同時に、新しい下流タスクに適応する際のマルチパス表現の利点を形式化する。
論文 参考訳(メタデータ) (2023-03-08T02:25:28Z) - Multimodal Subtask Graph Generation from Instructional Videos [51.96856868195961]
実世界のタスクは複数の相互依存サブタスクから構成される。
本研究では,タスクを記述する指導ビデオから,そのようなサブタスク間の因果関係をモデル化することを目的とする。
マルチモーダルなサブタスクグラフ生成(MSG2)を提案する。これは、ノイズの多いWebビデオからタスクに関連するタスクのサブタスク間の依存性を定義するサブタスクグラフを構築するアプローチである。
論文 参考訳(メタデータ) (2023-02-17T03:41:38Z) - Arch-Graph: Acyclic Architecture Relation Predictor for
Task-Transferable Neural Architecture Search [96.31315520244605]
Arch-Graphはタスク固有の最適アーキテクチャを予測するトランスファー可能なNASメソッドである。
Arch-Graphの転送性と,多数のタスクにわたる高いサンプル効率を示す。
わずか50モデルの予算の下で、2つの検索スペースで平均して0.16%と0.29%のアーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2022-04-12T16:46:06Z) - MGA-VQA: Multi-Granularity Alignment for Visual Question Answering [75.55108621064726]
視覚的な質問に答えることを学ぶことは、マルチモーダル入力が2つの特徴空間内にあるため、難しい作業である。
視覚質問応答タスク(MGA-VQA)のための多言語アライメントアーキテクチャを提案する。
我々のモデルはアライメントを異なるレベルに分割し、追加のデータやアノテーションを必要とせずにより良い相関関係を学習します。
論文 参考訳(メタデータ) (2022-01-25T22:30:54Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z) - Learning Twofold Heterogeneous Multi-Task by Sharing Similar Convolution
Kernel Pairs [24.044458897098913]
不均一マルチタスク学習(HMTL)はマルチタスク学習(MTL)において重要なトピックです。
このようなTHMTL設定で複数のタスクを学ぶために、シンプルで効果的なマルチタスク適応学習(MTAL)ネットワークを設計します。
本モデルは,ネットワーク全体の冗長性を抑えつつ,クロスタスク学習を効果的に行う。
論文 参考訳(メタデータ) (2021-01-29T06:52:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。