論文の概要: Unsupervised Open-domain Keyphrase Generation
- arxiv url: http://arxiv.org/abs/2306.10755v1
- Date: Mon, 19 Jun 2023 07:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 18:46:18.941760
- Title: Unsupervised Open-domain Keyphrase Generation
- Title(参考訳): 教師なしオープンドメインキーフレーズ生成
- Authors: Lam Thanh Do, Pritom Saha Akash, Kevin Chen-Chuan Chang
- Abstract要約: 本稿では,2つのモジュール,すなわちtextitphraseness と textitinformativeness モジュールからなるseq2seqモデルを提案する。
フレーズ化モジュールはフレーズを生成し、情報化モジュールはテキストの中核概念を表すものに向けて生成をガイドする。
本研究では,異なるドメインの8つのベンチマークデータセットを用いて,提案手法を徹底的に評価する。
- 参考スコア(独自算出の注目度): 7.429941108199692
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we study the problem of unsupervised open-domain keyphrase
generation, where the objective is a keyphrase generation model that can be
built without using human-labeled data and can perform consistently across
domains. To solve this problem, we propose a seq2seq model that consists of two
modules, namely \textit{phraseness} and \textit{informativeness} module, both
of which can be built in an unsupervised and open-domain fashion. The
phraseness module generates phrases, while the informativeness module guides
the generation towards those that represent the core concepts of the text. We
thoroughly evaluate our proposed method using eight benchmark datasets from
different domains. Results on in-domain datasets show that our approach
achieves state-of-the-art results compared with existing unsupervised models,
and overall narrows the gap between supervised and unsupervised methods down to
about 16\%. Furthermore, we demonstrate that our model performs consistently
across domains, as it overall surpasses the baselines on out-of-domain
datasets.
- Abstract(参考訳): 本研究では,人間ラベルデータを用いずに構築可能なキーフレーズ生成モデルであり,ドメイン間で一貫した実行が可能な,教師なしオープンドメインキーフレーズ生成の問題について検討する。
そこで本研究では,2つのモジュールからなる seq2seq モデルを提案し,その2つのモジュール,すなわち,教師なしかつオープンドメインの方法で構築できる \textit{phraseness} と \textit{informativeness} モジュールを提案する。
フレーズ化モジュールはフレーズを生成し、情報化モジュールはテキストの中核概念を表すものに向けて生成をガイドする。
提案手法を,異なる領域の8つのベンチマークデータセットを用いて徹底的に評価した。
ドメイン内データセットの結果から,既存の教師なしモデルと比較して最先端の結果が得られ,教師なし手法と教師なし手法のギャップを約16倍に縮めることが明らかとなった。
さらに,本モデルは,全体としては領域外データセットのベースラインを超えるため,ドメイン全体で一貫した性能を示す。
関連論文リスト
- Unsupervised Domain Adaptation for Keyphrase Generation using Citation Contexts [33.04325179283727]
キーフレーズ生成モデルを新しいドメインに適応させるには、通常、ドメイン内のラベル付きデータによる微調整をほとんど必要としない。
そこで本論文では,銀標準キーフレーズを引用文脈から抽出し,ドメイン適応のための合成ラベル付きデータを生成することにより,この問題に対処するための教師なし手法である絹について述べる。
論文 参考訳(メタデータ) (2024-09-20T06:56:14Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - DORIC : Domain Robust Fine-Tuning for Open Intent Clustering through
Dependency Parsing [14.709084509818474]
DSTC11-Track2は、ゼロショット、クロスドメイン、インテントセットインジェクションのためのベンチマークを提供することを目的としている。
複数ドメインの対話データセットを利用して言語モデルを微調整し,Verb-Objectペアの抽出を提案する。
提案手法は精度スコアにおいて3位となり,ベースラインモデルよりも精度が向上し,相互情報(NMI)スコアが正常化した。
論文 参考訳(メタデータ) (2023-03-17T08:12:36Z) - Cross-Domain Ensemble Distillation for Domain Generalization [17.575016642108253]
クロスドメイン・アンサンブル蒸留(XDED)という,シンプルで効果的な領域一般化法を提案する。
本手法は,同じラベルを持つトレーニングデータから,異なるドメインから出力ロジットのアンサンブルを生成し,そのアンサンブルとのミスマッチに対して各出力をペナルティ化する。
本手法で学習したモデルは, 敵攻撃や画像の破損に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-11-25T12:32:36Z) - Grounding Visual Representations with Texts for Domain Generalization [9.554646174100123]
相互モダリティの監督は、ドメイン不変の視覚表現の接地に成功することができる。
提案手法は,5つのマルチドメインデータセットの平均性能を1位に評価する。
論文 参考訳(メタデータ) (2022-07-21T03:43:38Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Unsupervised Domain Clusters in Pretrained Language Models [61.832234606157286]
大規模事前学習型言語モデルでは,教師なしのドメインによってクラスタ化される文表現を暗黙的に学習する。
このようなモデルに基づくドメインデータ選択手法を提案する。
我々は5つの異なる領域にわたるニューラルネットワーク翻訳のためのデータ選択手法を評価する。
論文 参考訳(メタデータ) (2020-04-05T06:22:16Z) - Zero-Resource Cross-Domain Named Entity Recognition [68.83177074227598]
既存のドメイン名付きエンティティ認識モデルは、多くのラベルなしコーパスや、ターゲットドメイン内のラベル付きNERトレーニングデータに依存している。
外部リソースを一切使用しないドメイン間NERモデルを提案する。
論文 参考訳(メタデータ) (2020-02-14T09:04:18Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。