論文の概要: Medical Concept Normalization in User Generated Texts by Learning Target
Concept Embeddings
- arxiv url: http://arxiv.org/abs/2006.04014v1
- Date: Sun, 7 Jun 2020 01:17:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 08:04:07.774352
- Title: Medical Concept Normalization in User Generated Texts by Learning Target
Concept Embeddings
- Title(参考訳): 目標概念埋め込み学習によるユーザ生成テキストの医学的概念正規化
- Authors: Katikapalli Subramanyam Kalyan, S.Sangeetha
- Abstract要約: 最近の研究は、テキスト分類またはテキストマッチングとして、正規化の概念を定めている。
提案モデルでは,入力概念の参照とターゲット概念の表現を共同で学習することで,これらの欠点を克服する。
我々のモデルは、精度を2.31%向上させることで、3つの標準データセットにまたがる既存のメソッドをすべて上回ります。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical concept normalization helps in discovering standard concepts in
free-form text i.e., maps health-related mentions to standard concepts in a
vocabulary. It is much beyond simple string matching and requires a deep
semantic understanding of concept mentions. Recent research approach concept
normalization as either text classification or text matching. The main drawback
in existing a) text classification approaches is ignoring valuable target
concepts information in learning input concept mention representation b) text
matching approach is the need to separately generate target concept embeddings
which is time and resource consuming. Our proposed model overcomes these
drawbacks by jointly learning the representations of input concept mention and
target concepts. First, it learns the input concept mention representation
using RoBERTa. Second, it finds cosine similarity between embeddings of input
concept mention and all the target concepts. Here, embeddings of target
concepts are randomly initialized and then updated during training. Finally,
the target concept with maximum cosine similarity is assigned to the input
concept mention. Our model surpasses all the existing methods across three
standard datasets by improving accuracy up to 2.31%.
- Abstract(参考訳): 医学的概念正規化は、自由形式のテキストにおける標準概念、すなわち健康に関連する言及を語彙の標準概念にマッピングするのに役立つ。
単純な文字列マッチングをはるかに超え、概念記述の深い意味的理解を必要とする。
最近の研究は、テキスト分類またはテキストマッチングとして、正規化の概念を定めている。
現存する主な欠点は
a) テキスト分類アプローチは、入力概念参照表現の学習において貴重な目標概念情報を無視している
b)テキストマッチングアプローチは、時間とリソース消費であるターゲット概念の埋め込みを別々に生成する必要がある。
提案モデルでは,入力概念の参照とターゲット概念の表現を共同で学習することで,これらの欠点を克服する。
まず、RoBERTaを用いた入力概念参照表現を学習する。
第二に、入力概念の埋め込みとすべての対象概念の間のコサインの類似性を見出す。
ここで、ターゲット概念の埋め込みはランダムに初期化され、トレーニング中に更新される。
最後に、最大コサイン類似度を持つターゲット概念を入力概念参照に割り当てる。
我々のモデルは、精度を2.31%向上させることで、3つの標準データセットにまたがる既存のメソッドをすべて上回ります。
関連論文リスト
- Can we Constrain Concept Bottleneck Models to Learn Semantically
Meaningful Input Features? [0.6993232019625149]
概念ボトルネックモデル(CBM)は、人間の定義した概念の集合を最初に予測するため、本質的に解釈可能であると考えられている。
固有解釈可能性を完全に実現するためには、意味的にマッピングされた入力機能に基づいて概念が予測されることを保証する必要がある。
我々はCBMが問題となる概念相関を取り除き,意味的マッピングによる概念表現を入力特徴へ学習できることを実証した。
論文 参考訳(メタデータ) (2024-02-01T10:18:43Z) - Cross-Modal Conceptualization in Bottleneck Models [21.2577097041883]
概念ボトルネックモデル(CBM)は、訓練例(例えば、x線画像)が高レベルの概念で注釈付けされていると仮定する。
このアプローチでは、より穏健な仮定を採用し、代わりに、訓練中の画像に付随するテキスト記述を用いて概念の導出を誘導する。
我々のクロスモーダルアプローチは,概念を離散潜在変数として扱い,(1)ラベルの予測,(2)画像とテキストの両方から確実に予測できる概念を促進する。
論文 参考訳(メタデータ) (2023-10-23T11:00:19Z) - Simple Mechanisms for Representing, Indexing and Manipulating Concepts [46.715152257557804]
我々は、概念の具体的な表現やシグネチャを生成するために、そのモーメント統計行列を見ることで概念を学ぶことができると論じる。
概念が交差しているとき、概念のシグネチャを使用して、関連する多くの相互交差した概念の共通テーマを見つけることができる。
論文 参考訳(メタデータ) (2023-10-18T17:54:29Z) - Implicit Concept Removal of Diffusion Models [96.03200681493348]
テキスト・ツー・イメージ(T2I)拡散モデルは、透かしや安全でない画像などの不要な概念を不注意に生成する。
幾何学駆動制御に基づく新しい概念除去手法であるGeom-Erasingを提案する。
論文 参考訳(メタデータ) (2023-10-09T17:13:10Z) - LEACE: Perfect linear concept erasure in closed form [103.61624393221447]
概念消去は、特定の特徴を表現から削除することを目的としている。
LEAst-squares Concept Erasure (LEACE) は、線形分類器が可能な限り少ない表現で概念を検出することを確実に防止する閉形式手法である。
LEACEを"concept scrubbing"と呼ばれる新しい手法で大規模言語モデルに適用し、ネットワーク内の各層からターゲット概念情報を消去する。
論文 参考訳(メタデータ) (2023-06-06T16:07:24Z) - DetCLIP: Dictionary-Enriched Visual-Concept Paralleled Pre-training for
Open-world Detection [118.36746273425354]
本稿では,デザインされた概念辞書から知識の豊かさを生かして,オープンワールド検出のための並列視覚概念事前学習手法を提案する。
概念をそれらの記述で豊かにすることにより、オープンドメイン学習を促進するために、さまざまな概念間の関係を明確に構築する。
提案フレームワークは、例えばLVISデータセット上で、強力なゼロショット検出性能を示し、私たちのDetCLIP-TはGLIP-Tを9.9%向上させ、レアカテゴリで13.5%改善した。
論文 参考訳(メタデータ) (2022-09-20T02:01:01Z) - ConceptBeam: Concept Driven Target Speech Extraction [69.85003619274295]
本研究では,ConceptBeamと呼ばれる意味情報に基づくターゲット音声抽出のための新しいフレームワークを提案する。
提案手法では,概念記述子を共有埋め込み空間にマッピングすることにより,概念を意味埋め込みとして符号化する。
我々は、モダリティに依存した情報、すなわち混合中の音声セグメント、および特定のモダリティに依存しない概念をブリッジするためにそれを使用する。
論文 参考訳(メタデータ) (2022-07-25T08:06:07Z) - FALCON: Fast Visual Concept Learning by Integrating Images, Linguistic
descriptions, and Conceptual Relations [99.54048050189971]
自然に発生する複数のデータストリームによってガイドされる新しい視覚概念を素早く学習するフレームワークを提案する。
学習された概念は、未知の画像について推論することで質問に答えるなど、下流のアプリケーションをサポートする。
合成と実世界の両方のデータセットにおけるモデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-30T19:45:00Z) - A Context-based Disambiguation Model for Sentiment Concepts Using a
Bag-of-concepts Approach [0.0]
本研究では,コモンセンス知識を用いてあいまいな極性概念を解くための文脈モデルを提案する。
提案モデルは,Semevalと呼ばれる製品レビューコーパスを適用して評価する。
実験の結果,提案モデルの有効性を示す精度は82.07%であった。
論文 参考訳(メタデータ) (2020-08-07T07:16:40Z) - On the Learnability of Concepts: With Applications to Comparing Word
Embedding Algorithms [0.0]
セマンティックコンテンツを共有した単語の一覧として「概念」の概念を導入する。
まず、この概念を用いて、事前訓練された単語埋め込みにおける概念の学習可能性を測定する。
そこで我々は,様々な埋め込みアルゴリズムの相対的メリットを比較するために,仮説テストとROC曲線に基づく概念学習可能性の統計的解析を開発した。
論文 参考訳(メタデータ) (2020-06-17T14:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。