論文の概要: How to Encode Domain Information in Relation Classification
- arxiv url: http://arxiv.org/abs/2404.13760v1
- Date: Sun, 21 Apr 2024 20:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 15:45:49.742381
- Title: How to Encode Domain Information in Relation Classification
- Title(参考訳): 関係分類におけるドメイン情報のエンコード方法
- Authors: Elisa Bassignana, Viggo Unmack Gascou, Frida Nøhr Laustsen, Gustav Kristensen, Marie Haahr Petersen, Rob van der Goot, Barbara Plank,
- Abstract要約: 現在の言語モデルは、高いパフォーマンスを得るために多くのトレーニングデータが必要です。
リレーショナル分類(RC)では、多くのデータセットがドメイン固有である。
本稿では,RCのためのマルチドメイン学習環境について検討し,ドメイン情報を符号化することで性能向上を図る。
- 参考スコア(独自算出の注目度): 28.006694890849374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current language models require a lot of training data to obtain high performance. For Relation Classification (RC), many datasets are domain-specific, so combining datasets to obtain better performance is non-trivial. We explore a multi-domain training setup for RC, and attempt to improve performance by encoding domain information. Our proposed models improve > 2 Macro-F1 against the baseline setup, and our analysis reveals that not all the labels benefit the same: The classes which occupy a similar space across domains (i.e., their interpretation is close across them, for example "physical") benefit the least, while domain-dependent relations (e.g., "part-of'') improve the most when encoding domain information.
- Abstract(参考訳): 現在の言語モデルは、高いパフォーマンスを得るために多くのトレーニングデータが必要です。
リレーショナル分類(RC)では、多くのデータセットがドメイン固有であるため、より良いパフォーマンスを得るためにデータセットを組み合わせることは簡単ではない。
本稿では,RCのためのマルチドメイン学習環境について検討し,ドメイン情報を符号化することで性能向上を図る。
提案したモデルでは,ベースライン設定に対して > 2 Macro-F1 が改良され,すべてのラベルが同じ利益を享受できるわけではないことが明らかになった。
関連論文リスト
- Task Oriented In-Domain Data Augmentation [38.525017729123114]
大規模言語モデル(LLM)は様々なアプリケーションや分野において優れた性能を示している。
法律や広告などの専門分野の性能向上のために、LLMはドメイン内のデータに基づいて事前訓練されることが多い。
タスク指向のドメイン内データ拡張フレームワークTRAITを提案する。
論文 参考訳(メタデータ) (2024-06-24T14:58:11Z) - Using Language to Extend to Unseen Domains [81.37175826824625]
ビジョンモデルがデプロイ時に遭遇する可能性のあるすべてのドメインのトレーニングデータを集めることは、費用がかかる。
トレーニングドメインと拡張したいが、堅牢性を改善するためのデータを持っていないドメインを、いかに単純に言葉で表現するかを考えます。
共同画像と言語埋め込み空間を備えたマルチモーダルモデルを用いて、LADSはトレーニング領域から各未確認テスト領域への画像埋め込みの変換を学習する。
論文 参考訳(メタデータ) (2022-10-18T01:14:02Z) - M2D2: A Massively Multi-domain Language Modeling Dataset [76.13062203588089]
ドメイン適応(LM)を研究するための細粒度多ドメインコーパスM2D2を提案する。
ウィキペディアとArXivから派生したカテゴリを用いて、各データソース内のドメインを22のグループに分類する。
我々は、LMをドメイン階層に沿って適用することの利点を示し、より少量のドメイン固有のデータに適応することで、ドメイン内のパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2022-10-13T21:34:52Z) - Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - Data Augmentation for Cross-Domain Named Entity Recognition [22.66649873447105]
名前付きエンティティ認識タスクのためのドメイン間データ拡張について検討する。
本稿では,データ表現を高リソースから低リソース領域に変換する新しいニューラルアーキテクチャを提案する。
本研究では,低リソース領域の表現にデータを変換することで,高リソース領域のデータのみを使用することによる大幅な改善を実現することを示す。
論文 参考訳(メタデータ) (2021-09-04T00:50:55Z) - Semantic Segmentation on Multiple Visual Domains [0.0]
複数の既存ドメインでのトレーニングモデルは、出力ラベル空間を増大させることが望まれる。
本稿では,データセットのすべてのクラスにまたがるラベル空間を作成することで,都市景観,SUIM,SUN RGB-Dのデータセットに対して,この手法を提案する。
その結果、ハードウェアの性能が等しければ、マルチドメインモデルの精度は、全てのベースラインモデルよりも高い精度であることがわかった。
論文 参考訳(メタデータ) (2021-07-09T09:34:51Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Multi-Domain Spoken Language Understanding Using Domain- and Task-Aware
Parameterization [78.93669377251396]
音声言語理解は、各ドメインでトレーニングデータのセットが利用できる教師付き学習問題として対処されてきた。
既存の1つのアプローチは、ドメイン間の共同トレーニングに共有パラメータを使用して、マルチドメイン学習を行うことによって、この問題を解決する。
本稿では,ドメイン固有モデルパラメータとタスク固有モデルパラメータを用いて,この手法のパラメータ化を改善することを提案する。
論文 参考訳(メタデータ) (2020-04-30T15:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。