論文の概要: Entity Recognition from Colloquial Text
- arxiv url: http://arxiv.org/abs/2401.04853v1
- Date: Tue, 9 Jan 2024 23:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 15:55:06.408156
- Title: Entity Recognition from Colloquial Text
- Title(参考訳): 口語テキストからのエンティティ認識
- Authors: Tamara Babaian, Jennifer Xu
- Abstract要約: 我々は、医療分野に焦点をあて、口語テキストからの症状認識の問題について検討する。
これらの戦略を用いて訓練された最高のパフォーマンスモデルは、最先端の専門症状認識器よりも大きなマージンで優れている。
言語文における効果的な実体認識のための学習戦略に関する設計原則を述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Extraction of concepts and entities of interest from non-formal texts such as
social media posts and informal communication is an important capability for
decision support systems in many domains, including healthcare, customer
relationship management, and others. Despite the recent advances in training
large language models for a variety of natural language processing tasks, the
developed models and techniques have mainly focused on formal texts and do not
perform as well on colloquial data, which is characterized by a number of
distinct challenges. In our research, we focus on the healthcare domain and
investigate the problem of symptom recognition from colloquial texts by
designing and evaluating several training strategies for BERT-based model
fine-tuning. These strategies are distinguished by the choice of the base
model, the training corpora, and application of term perturbations in the
training data. The best-performing models trained using these strategies
outperform the state-of-the-art specialized symptom recognizer by a large
margin. Through a series of experiments, we have found specific patterns of
model behavior associated with the training strategies we designed. We present
design principles for training strategies for effective entity recognition in
colloquial texts based on our findings.
- Abstract(参考訳): ソーシャルメディア投稿や非公式コミュニケーションといった非形式テキストから興味のある概念や実体を抽出することは、医療、顧客関係管理など、多くのドメインにおける意思決定支援システムにとって重要な機能である。
近年、様々な自然言語処理タスクのための大規模言語モデルの訓練が進んでいるにもかかわらず、発達したモデルと技術は主に形式的なテキストに焦点を合わせており、多くの異なる課題を特徴とする口語データによく対応していない。
本研究は医療分野に焦点をあて,BERTモデルファインチューニングのためのいくつかのトレーニング戦略を設計・評価することで,口語テキストからの症状認識の問題を検討する。
これらの戦略は、ベースモデルの選択、トレーニングコーパス、およびトレーニングデータにおける項摂動の適用によって区別される。
これらの戦略を用いて訓練された最高のパフォーマンスモデルは、最先端の専門症状認識器よりも大きなマージンで優れている。
一連の実験を通じて、設計したトレーニング戦略に関連するモデル行動の具体的なパターンを発見しました。
本研究は,言語文における効果的な実体認識のための学習戦略の設計原則について述べる。
関連論文リスト
- Merging Language and Domain Specific Models: The Impact on Technical Vocabulary Acquisition [0.0]
汎用言語特化モデルとドメイン特化モデルを組み合わせた場合の知識伝達機構について検討する。
本実験は, この統合プロセスが, 専門用語処理における対象モデルの習熟度に及ぼす影響を解析した。
論文 参考訳(メタデータ) (2025-02-17T16:39:28Z) - Analyzing Persuasive Strategies in Meme Texts: A Fusion of Language Models with Paraphrase Enrichment [0.23020018305241333]
本稿では,ミームテキストにおける説得手法の階層的マルチラベル検出へのアプローチについて述べる。
本研究の範囲は、革新的なトレーニング技術とデータ強化戦略を通じて、モデルパフォーマンスの向上を含む。
論文 参考訳(メタデータ) (2024-07-01T20:25:20Z) - A Unique Training Strategy to Enhance Language Models Capabilities for
Health Mention Detection from Social Media Content [6.053876125887214]
ソーシャルメディアから健康関連コンテンツを抽出することは、様々なタイプのアプリケーションの開発に有用である。
この欠点の主な理由は、ソーシャルメディア利用者が一般的に使用する標準化されていない書き込みスタイルにある。
鍵となるゴールは、ランダムな重み付き摂動と対照的な学習戦略を取り入れることによって達成される。
ソーシャルメディアテキストの投稿を非健康・健康関連クラスに識別するための5つの異なる言語モデルの利点を享受するメタ予測器を提案する。
論文 参考訳(メタデータ) (2023-10-29T16:08:33Z) - Visually Grounded Continual Language Learning with Selective
Specialization [17.31203979844975]
視覚的に行動する人工エージェントの望ましい特徴は、言語インフォームドタスクの連続を継続的に学習することである。
選択的特殊化(Selective specialization)、すなわち、各タスクを専門とするモデルコンポーネントの選択は、このトレードオフを管理するための戦略である。
論文 参考訳(メタデータ) (2023-10-24T07:35:23Z) - Self-training Strategies for Sentiment Analysis: An Empirical Study [7.416913210816592]
自己学習は感情分析モデルを開発するための経済的かつ効率的な手法である。
いくつかの自己学習戦略と大規模言語モデルの介入を比較した。
論文 参考訳(メタデータ) (2023-09-15T21:42:46Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - Foundation Models for Decision Making: Problems, Methods, and
Opportunities [124.79381732197649]
大規模に多様なデータに基づいて事前訓練された基礎モデルは、幅広いビジョンと言語タスクにおいて異常な能力を示してきた。
ファンデーションモデルをトレーニングし、他のエージェントと対話し、長期的な推論を行うための新しいパラダイムが生まれている。
基礎モデルと意思決定の交わりにおける研究は、強力な新しいシステムを作るための大きな約束である。
論文 参考訳(メタデータ) (2023-03-07T18:44:07Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z) - Concept Learners for Few-Shot Learning [76.08585517480807]
本研究では,人間の解釈可能な概念次元に沿って学習することで,一般化能力を向上させるメタ学習手法であるCOMETを提案する。
我々は,細粒度画像分類,文書分類,セルタイプアノテーションなど,さまざまな領域からの少数ショットタスクによるモデルの評価を行った。
論文 参考訳(メタデータ) (2020-07-14T22:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。