論文の概要: Eye-SpatialNet: Spatial Information Extraction from Ophthalmology Notes
- arxiv url: http://arxiv.org/abs/2305.11948v1
- Date: Fri, 19 May 2023 18:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 01:42:26.236386
- Title: Eye-SpatialNet: Spatial Information Extraction from Ophthalmology Notes
- Title(参考訳): Eye-SpatialNet:眼科ノートからの空間情報抽出
- Authors: Surabhi Datta, Tasneem Kaochar, Hio Cheng Lam, Nelly Nwosu, Luca
Giancardo, Alice Z. Chuang, Robert M. Feldman, Kirk Roberts
- Abstract要約: 眼科領域の詳細な空間情報と文脈情報をラベル付けした600個の眼科メモの注釈付きコーパスを導入する。
我々は,これまで提案してきたフレームセマンティクスに基づく空間表現スキーマRad-SpatialNetを拡張し,眼科テキストで空間言語を表現する。
詳細な情報を抽出することは、眼科の応用や、疾患の進行とスクリーニングを目的とした研究に有用である。
- 参考スコア(独自算出の注目度): 3.1765130760886113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an annotated corpus of 600 ophthalmology notes labeled with
detailed spatial and contextual information of ophthalmic entities. We extend
our previously proposed frame semantics-based spatial representation schema,
Rad-SpatialNet, to represent spatial language in ophthalmology text, resulting
in the Eye-SpatialNet schema. The spatially-grounded entities are findings,
procedures, and drugs. To accurately capture all spatial details, we add some
domain-specific elements in Eye-SpatialNet. The annotated corpus contains 1715
spatial triggers, 7308 findings, 2424 anatomies, and 9914 descriptors. To
automatically extract the spatial information, we employ a two-turn question
answering approach based on the transformer language model BERT. The results
are promising, with F1 scores of 89.31, 74.86, and 88.47 for spatial triggers,
Figure, and Ground frame elements, respectively. This is the first work to
represent and extract a wide variety of clinical information in ophthalmology.
Extracting detailed information can benefit ophthalmology applications and
research targeted toward disease progression and screening.
- Abstract(参考訳): 眼科領域の詳細な空間情報と文脈情報をラベル付けした600個の眼科メモの注釈付きコーパスを導入する。
我々は,これまで提案してきたフレームセマンティクスに基づく空間表現スキーマRad-SpatialNetを拡張し,眼科テキストで空間言語を表現する。
空間的に位置づけられた実体は、発見、手続き、および薬物である。
すべての空間的詳細を正確に把握するために、eye-spatialnetにいくつかのドメイン固有の要素を追加します。
注釈付きコーパスには1715の空間トリガー、7308の発見、2424の解剖、9914の記述子が含まれている。
空間情報を自動的に抽出するために,トランスフォーマー言語モデルbertに基づく2ターン質問応答アプローチを採用する。
F1スコアは、それぞれ89.31点、74.86点、88.47点の空間トリガ、図形、地上フレームである。
これは眼科における様々な臨床情報を表現し抽出する最初の研究である。
詳細な情報を抽出することは、疾患の進行とスクリーニングを目的とした眼科の応用や研究に役立つ。
関連論文リスト
- Automatic Mapping of Anatomical Landmarks from Free-Text Using Large Language Models: Insights from Llama-2 [0.04096453902709291]
解剖学的ランドマークは、ナビゲーションと異常検出のための医療画像に不可欠である。
現代の大言語モデル(LLM)は、自由テキストラジオグラフィーレポートでこれらのランドマークを画像データの対応する位置にマッピングすることを約束する。
論文 参考訳(メタデータ) (2024-10-16T15:48:28Z) - Segment as You Wish -- Free-Form Language-Based Segmentation for Medical Images [30.673958586581904]
フリーフォームなテキストプロンプトを処理する新しい医用画像セグメンテーションモデルであるFLanSを紹介する。
FLanSは、7つの公開データセットから100万以上の医療画像の大規模なデータセットでトレーニングされている。
論文 参考訳(メタデータ) (2024-10-02T16:34:32Z) - BiomedParse: a biomedical foundation model for image parsing of everything everywhere all at once [58.41069132627823]
全体像解析は、セグメンテーション、検出、関連するオブジェクトの認識などのサブタスクを含む。
そこで本研究では,9つの画像モダリティにまたがる82種類のオブジェクトの分割,検出,認識を共同で行うことができる,画像解析のためのバイオメディカル基礎モデルであるBiomedParseを提案する。
共同学習により、個々のタスクの精度を向上し、テキストプロンプトを通じてノイズの多い画像中のすべての関連オブジェクトを分割するといった新しいアプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-05-21T17:54:06Z) - Knowledge-enhanced Visual-Language Pretraining for Computational Pathology [68.6831438330526]
本稿では,公共資源から収集した大規模画像テキストペアを利用した視覚的表現学習の課題について考察する。
ヒト32組織から病理診断を必要とする4,718の疾患に対して50,470個の情報属性からなる病理知識ツリーをキュレートする。
論文 参考訳(メタデータ) (2024-04-15T17:11:25Z) - Hierarchical Text-to-Vision Self Supervised Alignment for Improved Histopathology Representation Learning [64.1316997189396]
病理組織像のための新しい言語型自己教師学習フレームワーク,階層型言語型自己監督(HLSS)を提案する。
その結果,OpenSRH と TCGA の2つの医用画像ベンチマークにおいて,最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-03-21T17:58:56Z) - Periocular biometrics: databases, algorithms and directions [69.35569554213679]
近視バイオメトリックスは、制御されていない条件下での虹彩や顔のシステムの性能に関する懸念から、独立したモダリティとして確立されている。
本稿では, 近視バイオメトリックス研究における最先端技術について概説する。
論文 参考訳(メタデータ) (2023-07-26T11:14:36Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Scope2Screen: Focus+Context Techniques for Pathology Tumor Assessment in
Multivariate Image Data [0.0]
Scope2Screenは、全スライディング、ハイプレックス、組織像のフォーカス+コンテキスト探索とアノテーションのためのスケーラブルなソフトウェアシステムである。
我々のアプローチは、数百万のセルを含む1チャンネルあたり109ピクセル以上の100GBの画像を分析するためにスケールする。
単細胞および組織レベルで機能する対話型レンズ技術を提案する。
論文 参考訳(メタデータ) (2021-10-10T18:34:13Z) - Regional Attention Network (RAN) for Head Pose and Fine-grained Gesture
Recognition [9.131161856493486]
本研究では,CNN(Convolutional Neural Network) である RAN (End-to-end textbfRegional Attention Network) を提案する。
我々の領域は1つ以上の連続した細胞から構成されており、HOG(Histogram of Oriented Gradient)ディスクリプタの計算に使用される戦略に適応している。
提案手法は、異なる指標のかなりの差で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-01-17T10:14:28Z) - SIRI: Spatial Relation Induced Network For Spatial Description
Resolution [64.38872296406211]
言語誘導型ローカライゼーションのための新しい関係誘導型ネットワーク(SIRI)を提案する。
提案手法は,80ピクセルの半径で測定した精度で,最先端手法よりも約24%優れていた。
提案手法は,Touchdownと同じ設定で収集した拡張データセットをうまく一般化する。
論文 参考訳(メタデータ) (2020-10-27T14:04:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。