論文の概要: Tracking entities in technical procedures -- a new dataset and baselines
- arxiv url: http://arxiv.org/abs/2104.07378v1
- Date: Thu, 15 Apr 2021 11:16:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 23:53:53.516543
- Title: Tracking entities in technical procedures -- a new dataset and baselines
- Title(参考訳): 技術的手続きにおけるエンティティの追跡 - 新しいデータセットとベースライン
- Authors: Saransh Goyal, Pratyush Pandey, Garima Gaur, Subhalingam D, Srikanta
Bedathur, Maya Ramanath
- Abstract要約: techtrackは1手順あたり平均4.7エンティティの1200以上のユニークなエンティティを識別する。
我々は,エンティティ追跡タスクにおける最先端モデルの性能を評価し,それらが人間のアノテーション性能よりかなり低いことを確認する。
- 参考スコア(独自算出の注目度): 4.537991138736299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce TechTrack, a new dataset for tracking entities in technical
procedures. The dataset, prepared by annotating open domain articles from
WikiHow, consists of 1351 procedures, e.g., "How to connect a printer",
identifies more than 1200 unique entities with an average of 4.7 entities per
procedure. We evaluate the performance of state-of-the-art models on the
entity-tracking task and find that they are well below the human annotation
performance. We describe how TechTrack can be used to take forward the research
on understanding procedures from temporal texts.
- Abstract(参考訳): 技術手順でエンティティを追跡するための新しいデータセットであるtechtrackを紹介する。
WikiHowからオープンドメインの記事に注釈を付けたデータセットは、"プリンタの接続方法"など1351のプロシージャで構成され、1200以上のユニークなエンティティを1プロシージャあたり平均4.7のエンティティで識別する。
我々は,エンティティ追跡タスクにおける最先端モデルの性能を評価し,それらが人間のアノテーション性能よりかなり低いことを確認する。
我々は,テクトラックを用いて時相テキストからの手続きの理解研究を行う方法について述べる。
関連論文リスト
- SciER: An Entity and Relation Extraction Dataset for Datasets, Methods, and Tasks in Scientific Documents [49.54155332262579]
我々は,科学論文のデータセット,メソッド,タスクに関連するエンティティに対して,新たなエンティティと関係抽出データセットをリリースする。
我々のデータセットには、24k以上のエンティティと12kの関係を持つ106の注釈付きフルテキストの科学出版物が含まれています。
論文 参考訳(メタデータ) (2024-10-28T15:56:49Z) - Learning to Ground Instructional Articles in Videos through Narrations [50.3463147014498]
ナレーションされたハウツービデオにおける手続き的活動の段階をローカライズするためのアプローチを提案する。
本稿では,教科記事を含む言語知識ベース(wikiHow)からステップ記述を抽出する。
本モデルは,3つのモダリティをマッチングすることにより,プロシージャ記事のステップをハウツービデオに時間的に基礎付けることを学習する。
論文 参考訳(メタデータ) (2023-06-06T15:45:53Z) - Application of Transformers based methods in Electronic Medical Records:
A Systematic Literature Review [77.34726150561087]
本研究は,異なるNLPタスクにおける電子カルテ(EMR)のトランスフォーマーに基づく手法を用いて,最先端技術に関する体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-04-05T22:19:42Z) - Cross-Domain Aspect Extraction using Transformers Augmented with
Knowledge Graphs [3.662157175955389]
本稿では,アスペクト項の識別に関連する情報を含むドメイン固有知識グラフを自動構築する手法を提案する。
提案手法を用いたドメイン間アスペクト項抽出のためのベンチマークデータセットの最先端性能を実証し,Transformerで利用可能な外部知識の量がモデル性能に与える影響について検討する。
論文 参考訳(メタデータ) (2022-10-18T20:18:42Z) - Knowledge-Rich Self-Supervised Entity Linking [58.838404666183656]
Knowledge-RIch Self-Supervision(KRISSBERT$)は400万のUMLSエンティティのためのユニバーサルエンティティリンカーである。
提案手法はゼロショット法と少数ショット法を仮定し,利用可能であればエンティティ記述やゴールドレファレンスラベルを簡単に組み込むことができる。
ラベル付き情報を一切使わずに400万のUMLSエンティティのためのユニバーサルエンティティリンカである$tt KRISSBERT$を生成する。
論文 参考訳(メタデータ) (2021-12-15T05:05:12Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Augmenting Modelers with Semantic Autocompletion of Processes [5.279475826661643]
ビジネスプロセスモデラーはドメインに関する専門知識を必要とします。
本稿では,サブプロセスの意味的類似性に基づく設計時の自動補完手法を提案する。
論文 参考訳(メタデータ) (2021-05-24T16:23:07Z) - Automatic Product Ontology Extraction from Textual Reviews [12.235907063179278]
提案手法は,既存の手法(Text2Onto と COMET)を多種多様な設定で抽出し,手作り(NetWord)よりも優れていることを示す。
提案手法は,Amazonの標準スコアアグリゲーションの代わりに,レビューに基づいて推奨商品を判断できる。
論文 参考訳(メタデータ) (2021-05-23T16:06:38Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z) - DUTH at SemEval-2020 Task 11: BERT with Entity Mapping for Propaganda
Classification [1.5469452301122173]
本報告では,SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articlesに参加するために,Democritus University of Thrace(DUTH)チームが採用した手法について述べる。
論文 参考訳(メタデータ) (2020-08-22T18:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。