論文の概要: InSRL: A Multi-view Learning Framework Fusing Multiple Information
Sources for Distantly-supervised Relation Extraction
- arxiv url: http://arxiv.org/abs/2012.09370v1
- Date: Thu, 17 Dec 2020 02:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:31:11.688915
- Title: InSRL: A Multi-view Learning Framework Fusing Multiple Information
Sources for Distantly-supervised Relation Extraction
- Title(参考訳): insrl: 遠隔教師付き関係抽出のための複数の情報ソースを用いた多視点学習フレームワーク
- Authors: Zhendong Chu, Haiyun Jiang, Yanghua Xiao, Wei Wang
- Abstract要約: ナレッジベースに広く存在する2つのソース、すなわちエンティティ記述と複数の粒度のエンティティタイプを紹介します。
Intact Space Representation Learning (InSRL) による関係抽出のためのエンドツーエンドのマルチビュー学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.176183245280267
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distant supervision makes it possible to automatically label bags of
sentences for relation extraction by leveraging knowledge bases, but suffers
from the sparse and noisy bag issues. Additional information sources are
urgently needed to supplement the training data and overcome these issues. In
this paper, we introduce two widely-existing sources in knowledge bases, namely
entity descriptions, and multi-grained entity types to enrich the distantly
supervised data. We see information sources as multiple views and fusing them
to construct an intact space with sufficient information. An end-to-end
multi-view learning framework is proposed for relation extraction via Intact
Space Representation Learning (InSRL), and the representations of single views
are jointly learned simultaneously. Moreover, inner-view and cross-view
attention mechanisms are used to highlight important information on different
levels on an entity-pair basis. The experimental results on a popular benchmark
dataset demonstrate the necessity of additional information sources and the
effectiveness of our framework. We will release the implementation of our model
and dataset with multiple information sources after the anonymized review
phase.
- Abstract(参考訳): 遠隔監視により、知識ベースを利用して関係抽出のための文の袋を自動的にラベル付けすることができるが、狭くうるさいバッグの問題に苦しむ。
トレーニングデータを補完し、これらの問題を克服するために、追加の情報ソースが緊急に必要となる。
本稿では,知識ベースに広く存在する2つの情報源,すなわちエンティティ記述と多粒体型を導入し,教師付きデータの充実を図る。
我々は、情報ソースを複数のビューと見なし、十分な情報を持つ無傷空間を構築するためにそれらを融合させる。
Intact Space Representation Learning (InSRL) による関係抽出のために, エンドツーエンドのマルチビュー学習フレームワークを提案し, 単一ビューの表現を同時に学習する。
さらに、インナービューとクロスビューアテンションメカニズムを用いて、異なるレベルの重要な情報をエンティティペアベースで強調する。
一般的なベンチマークデータセットの実験結果から,追加の情報ソースの必要性とフレームワークの有効性が示された。
匿名化レビューフェーズの後、複数の情報ソースを持つモデルとデータセットの実装をリリースします。
関連論文リスト
- Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Self-Supervised Information Bottleneck for Deep Multi-View Subspace
Clustering [29.27475285925792]
我々は、SIB-MSC(Self-supervised Information Bottleneck based Multi-view Subspace Clustering)と呼ばれる新しいフレームワークを確立する。
SIB-MSCは、情報のボトルネックから利点を継承し、各ビューの潜伏空間を学習し、異なるビューの潜伏表現の共通情報をキャプチャする。
本手法は,最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-04-26T15:49:59Z) - X-Learner: Learning Cross Sources and Tasks for Universal Visual
Representation [71.51719469058666]
本稿では,X-Learnerという表現学習フレームワークを提案する。
X-Learnerは、様々なソースによって管理される複数の視覚タスクの普遍的な特徴を学習する。
X-Learnerは、追加のアノテーションやモダリティ、計算コストを使わずに、様々なタスクで強力なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-16T17:23:26Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - Latent Correlation-Based Multiview Learning and Self-Supervision: A
Unifying Perspective [41.80156041871873]
この研究は、教師なしのマルチビュー学習のための理論支援フレームワークを提供する。
私たちの開発は、各ビューが共有コンポーネントとプライベートコンポーネントの非線形混合であるマルチビューモデルの提案から始まります。
さらに、各ビュー内のプライベート情報を適切な正規化設計を用いて共有から確実に切り離すことができる。
論文 参考訳(メタデータ) (2021-06-14T00:12:36Z) - Multimodal Clustering Networks for Self-supervised Learning from
Unlabeled Videos [69.61522804742427]
本稿では,共通のマルチモーダル埋め込み空間を学習する自己監督型トレーニングフレームワークを提案する。
インスタンスレベルのコントラスト学習の概念をマルチモーダルクラスタリングステップで拡張し,モダリティ間の意味的類似性を捉える。
結果として得られる埋め込みスペースは、見えないデータセットや異なるドメインからでも、すべてのモダリティにわたるサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2021-04-26T15:55:01Z) - Multimodal Entity Linking for Tweets [6.439761523935613]
マルチモーダル・エンティティ・リンク(MEL)は、知識ベース(KB)のエンティティへの曖昧な言及をマッピングするためにテキストと視覚情報を使用する新興の研究分野である。
我々は,MEL のための完全注釈付き Twitter データセットを構築する方法を提案し,エンティティは Twitter KB で定義されている。
次に,テキストと視覚の文脈から言及と実体の両方の表現を共同学習するモデルを提案する。
論文 参考訳(メタデータ) (2021-04-07T16:40:23Z) - Multi-modal AsynDGAN: Learn From Distributed Medical Image Data without
Sharing Private Information [55.866673486753115]
プライバシーとセキュリティを守るために拡張可能で弾力性のある学習フレームワークを提案します。
提案するフレームワークは分散Asynchronized Discriminator Generative Adrial Networks (AsynDGAN) である。
論文 参考訳(メタデータ) (2020-12-15T20:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。