論文の概要: DomBERT: Domain-oriented Language Model for Aspect-based Sentiment
Analysis
- arxiv url: http://arxiv.org/abs/2004.13816v1
- Date: Tue, 28 Apr 2020 21:07:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 23:08:37.546047
- Title: DomBERT: Domain-oriented Language Model for Aspect-based Sentiment
Analysis
- Title(参考訳): DomBERT:アスペクトベースの知覚分析のためのドメイン指向言語モデル
- Authors: Hu Xu, Bing Liu, Lei Shu, Philip S. Yu
- Abstract要約: 本研究では、ドメイン内コーパスと関連するドメインコーパスの両方から学習するためのBERTの拡張であるDomBERTを提案する。
アスペクトベース感情分析における課題の整理実験を行い、有望な結果を示す。
- 参考スコア(独自算出の注目度): 71.40586258509394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on learning domain-oriented language models driven by end
tasks, which aims to combine the worlds of both general-purpose language models
(such as ELMo and BERT) and domain-specific language understanding. We propose
DomBERT, an extension of BERT to learn from both in-domain corpus and relevant
domain corpora. This helps in learning domain language models with
low-resources. Experiments are conducted on an assortment of tasks in
aspect-based sentiment analysis, demonstrating promising results.
- Abstract(参考訳): 本稿では,汎用言語モデル(elmo や bert など)とドメイン固有言語理解の両世界を結合することを目的とした,エンドタスクによるドメイン指向言語モデルの学習に焦点を当てる。
本研究では、ドメイン内コーパスと関連するドメインコーパスの両方から学習するためのBERTの拡張であるDomBERTを提案する。
これは低リソースでドメイン言語モデルを学ぶのに役立つ。
アスペクトベース感情分析における課題の整理実験を行い、有望な結果を示す。
関連論文リスト
- Boosting Large Language Models with Continual Learning for Aspect-based Sentiment Analysis [33.86086075084374]
アスペクトベース感情分析(ABSA)は感情分析の重要なサブタスクである。
ABSAのための大規模言語モデルに基づく連続学習(textttLLM-CL)モデルを提案する。
論文 参考訳(メタデータ) (2024-05-09T02:00:07Z) - Large Language Models as Planning Domain Generators [21.61328475841776]
大規模言語モデル(LLM)は、単純なテキスト記述から計画的なドメインモデルを生成するために使用できる。
LLMは、自然言語記述から正しい計画領域を生成するのに適度な習熟度を示す。
論文 参考訳(メタデータ) (2024-04-02T19:39:23Z) - Cross-domain Chinese Sentence Pattern Parsing [67.1381983012038]
文パターン構造解析(SPS)は、主に言語教育に使用される構文解析法である。
既存のSPSは教科書のコーパスに大きく依存しており、クロスドメイン機能に欠ける。
本稿では,大規模言語モデル(LLM)を自己学習フレームワーク内で活用する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T05:30:48Z) - Adapt in Contexts: Retrieval-Augmented Domain Adaptation via In-Context
Learning [48.22913073217633]
大規模言語モデル(LLM)は、インコンテキスト学習(in-context learning)として知られる少数の推論でその能力を示した。
本稿では,UDA問題を文脈内学習環境下で研究し,ソースドメインからターゲットドメインへの言語モデルの適用を,ターゲットラベルを使わずに行う。
我々は、異なるLMアーキテクチャを考慮し、異なるプロンプトとトレーニング戦略を考案し、言語モデリングを通してターゲット分布を学習する。
論文 参考訳(メタデータ) (2023-11-20T06:06:20Z) - Adapting Large Language Models to Domains via Reading Comprehension [86.24451681746676]
ドメイン固有コーパスの事前学習が大規模言語モデルに与える影響について検討する。
生のコーパスでのトレーニングはドメイン知識でモデルを養うが、問合せ能力を大幅に損なう。
生コーパスを可読テキストに変換する簡単な方法を提案する。
論文 参考訳(メタデータ) (2023-09-18T07:17:52Z) - A Unified Knowledge Graph Augmentation Service for Boosting
Domain-specific NLP Tasks [10.28161912127425]
本稿では,ドメイン知識グラフを用いたタスク固有のトレーニング手順を強化するために,統合されたドメイン言語モデル開発サービスであるKnowledgeDAを提案する。
我々は、医療とソフトウェア開発という2つの分野の言語モデルを学ぶために、KnowledgeDAのプロトタイプを実装します。
論文 参考訳(メタデータ) (2022-12-10T09:18:43Z) - Pretrained Domain-Specific Language Model for General Information
Retrieval Tasks in the AEC Domain [5.949779668853556]
各種情報検索タスクにおいて,ドメインコーパスとドメイン固有の事前学習型DLモデルがどのように性能を向上させるかは明らかでない。
本研究は,ドメインコーパスと各種伝達学習技術がIRタスクのDLモデルの性能に与える影響について検討する。
BERTベースのモデルは、すべてのIRタスクにおいて従来の手法よりも劇的に優れ、F1スコアの最大5.4%と10.1%の改善があった。
論文 参考訳(メタデータ) (2022-03-09T14:10:55Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Learning Domain-Specialised Representations for Cross-Lingual Biomedical
Entity Linking [66.76141128555099]
言語横断型バイオメディカルエンティティリンクタスク(XL-BEL)を提案する。
まず、標準単言語英語BELタスクを超えて、標準単言語および多言語LMと同様に、標準的な知識に依存しない能力について検討する。
次に、リソースに富んだ言語からリソースに乏しい言語にドメイン固有の知識を移すことの課題に対処する。
論文 参考訳(メタデータ) (2021-05-30T00:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。