論文の概要: Measuring Fine-Grained Domain Relevance of Terms: A Hierarchical
Core-Fringe Approach
- arxiv url: http://arxiv.org/abs/2105.13255v1
- Date: Thu, 27 May 2021 15:52:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-28 16:38:34.277128
- Title: Measuring Fine-Grained Domain Relevance of Terms: A Hierarchical
Core-Fringe Approach
- Title(参考訳): 項の細粒度領域関連性の測定:階層的コアフィングアプローチ
- Authors: Jie Huang, Kevin Chen-Chuan Chang, Jinjun Xiong, Wen-mei Hwu
- Abstract要約: 我々は,ある用語が広い領域(例えば,計算機科学)や狭い領域(例えば,ディープラーニング)に関係している程度を測定することを提案する。
長い尾の項を扱うために、コアアンコレート・セマンティックグラフを構築します。
調整用コーパスに頼らずにきめ細かなドメインをサポートするため,階層型コアフロンティア学習を開発した。
私たちのアプローチは、大きなドメインや小さなドメインに適用され、頭や尾の用語をカバーし、人間の努力をほとんど必要としません。
- 参考スコア(独自算出の注目度): 24.04238065663009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to measure fine-grained domain relevance - the degree that a term
is relevant to a broad (e.g., computer science) or narrow (e.g., deep learning)
domain. Such measurement is crucial for many downstream tasks in natural
language processing. To handle long-tail terms, we build a core-anchored
semantic graph, which uses core terms with rich description information to
bridge the vast remaining fringe terms semantically. To support a fine-grained
domain without relying on a matching corpus for supervision, we develop
hierarchical core-fringe learning, which learns core and fringe terms jointly
in a semi-supervised manner contextualized in the hierarchy of the domain. To
reduce expensive human efforts, we employ automatic annotation and hierarchical
positive-unlabeled learning. Our approach applies to big or small domains,
covers head or tail terms, and requires little human effort. Extensive
experiments demonstrate that our methods outperform strong baselines and even
surpass professional human performance.
- Abstract(参考訳): 我々は、ある用語が広い領域(コンピュータ科学など)や狭い領域(ディープラーニングなど)に関係している程度について、きめ細かいドメインの関連性を測定することを提案する。
このような測定は、自然言語処理における多くの下流タスクに不可欠である。
長い語を扱うために、コアアンチョートな意味グラフを構築し、コア語と豊富な記述情報を使用して、巨大なフリンジ語を意味的に橋渡しします。
そこで我々は,ドメインの階層構造においてコンテキスト化された半教師付き方式で,コア語とフランジ語を共同で学習する階層的コアフランジ学習を開発した。
コストのかかる人的努力を減らすために,自動アノテーションと階層的肯定的学習を用いる。
私たちのアプローチは、大きなドメインや小さなドメインに適用し、頭や尾の用語をカバーし、人間の努力をほとんど必要としません。
大規模な実験により、我々の手法は強いベースラインを上回り、プロの人間のパフォーマンスを上回ります。
関連論文リスト
- Domain-oriented Language Pre-training with Adaptive Hybrid Masking and
Optimal Transport Alignment [43.874781718934486]
我々は、異なるアプリケーションドメインに対して事前訓練された言語モデルを適用するための一般的なドメイン指向のアプローチを提供する。
フレーズ知識を効果的に保存するために,補助訓練ツールとしてドメインフレーズプールを構築した。
我々はクロスエンティティアライメントを導入し、エンティティアライメントを弱い監督力として活用し、事前訓練されたモデルのセマンティックラーニングを強化する。
論文 参考訳(メタデータ) (2021-12-01T15:47:01Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Unsupervised Domain Adaptation for Semantic Segmentation via Low-level
Edge Information Transfer [27.64947077788111]
セマンティックセグメンテーションのための教師なしドメイン適応は、合成データに基づいて訓練されたモデルを実際の画像に適応させることを目的としている。
従来の特徴レベルの対数学習手法は、高レベルの意味的特徴に適応するモデルのみを考慮していた。
本稿では,ドメイン間ギャップが小さい低レベルエッジ情報を明示的に利用して意味情報の伝達をガイドする試みについて紹介する。
論文 参考訳(メタデータ) (2021-09-18T11:51:31Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Domain Adaptation for Semantic Segmentation via Patch-Wise Contrastive
Learning [62.7588467386166]
ドメイン間で構造的に類似するラベルパッチの機能を調整することで、ドメインギャップを埋めるためにコントラスト学習を利用する。
私たちのアプローチは、常に2つの困難なドメイン適応セグメンテーションタスクにおいて、最先端の非監視および半監督メソッドを上回ります。
論文 参考訳(メタデータ) (2021-04-22T13:39:12Z) - Classes Matter: A Fine-grained Adversarial Approach to Cross-domain
Semantic Segmentation [95.10255219396109]
クラスレベルの特徴アライメントのための微粒な逆学習戦略を提案する。
ドメイン区別器として機能するだけでなく、クラスレベルでドメインを区別する、きめ細かいドメイン識別器を採用しています。
CCD (Class Center Distance) を用いた解析により, 粒度の細かい対角戦略により, クラスレベルのアライメントが向上することが確認された。
論文 参考訳(メタデータ) (2020-07-17T20:50:59Z) - Coupling Distant Annotation and Adversarial Training for Cross-Domain
Chinese Word Segmentation [40.27961925319402]
本論文は,中国語の単語セグメント化のための遠隔アノテーションと逆行訓練を併用することを提案する。
遠隔アノテーションのために、ターゲットドメインからの監視や事前定義された辞書を必要としない自動遠隔アノテーション機構を設計する。
逆行訓練では、音源領域情報の雑音低減と最大限の活用を行うための文レベルの訓練手法を開発する。
論文 参考訳(メタデータ) (2020-07-16T08:54:17Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Weakly-supervised Domain Adaption for Aspect Extraction via Multi-level
Interaction Transfer [21.25975423883388]
この研究は、レビューサイトのような商用サービスで通常利用できる文レベルのアスペクトカテゴリーラベルを活用するための先駆的な研究を行っている。
本稿では,複数の抽象化レベルにおいて,細粒度と粗粒度を両立させる新しい多層再構成機構を提案する。
論文 参考訳(メタデータ) (2020-06-16T15:11:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。