論文の概要: SLATE: A Sequence Labeling Approach for Task Extraction from Free-form
Inked Content
- arxiv url: http://arxiv.org/abs/2211.04454v1
- Date: Tue, 8 Nov 2022 18:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:27:29.540596
- Title: SLATE: A Sequence Labeling Approach for Task Extraction from Free-form
Inked Content
- Title(参考訳): SLATE:自由形インキコンテンツからのタスク抽出のためのシーケンスラベリング手法
- Authors: Apurva Gandhi, Ryan Serrao, Biyi Fang, Gilbert Antonius, Jenna Hong,
Tra My Nguyen, Sheng Yi, Ehi Nosakhare, Irene Shaffer, Soundararajan
Srinivasan, Vivek Gupta
- Abstract要約: 仮想ホワイトボード上で手書きノートからタスクを抽出するシーケンスラベリング手法SLATEを提案する。
SLATEはベースライン2モデル(セグメンテーションと分類モデル)のアプローチを大幅に上回る。
インキドメイン上でNLPを実行する際の課題に対処するための洞察を提供する。
- 参考スコア(独自算出の注目度): 5.734333132115777
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present SLATE, a sequence labeling approach for extracting tasks from
free-form content such as digitally handwritten (or "inked") notes on a virtual
whiteboard. Our approach allows us to create a single, low-latency model to
simultaneously perform sentence segmentation and classification of these
sentences into task/non-task sentences. SLATE greatly outperforms a baseline
two-model (sentence segmentation followed by classification model) approach,
achieving a task F1 score of 84.4\%, a sentence segmentation (boundary
similarity) score of 88.4% and three times lower latency compared to the
baseline. Furthermore, we provide insights into tackling challenges of
performing NLP on the inking domain. We release both our code and dataset for
this novel task.
- Abstract(参考訳): 仮想ホワイトボード上に,デジタル手書き(または「リンク」)ノートなどの自由形式のコンテンツからタスクを抽出するシーケンスラベリング手法であるSLATEを提案する。
提案手法は,タスク/非タスク文への文分割と分類を同時に行うための,単一かつ低遅延モデルの構築を可能にする。
SLATEはベースライン2モデル(セグメンテーションと分類モデル)のアプローチを大きく上回り、タスクF1スコアは84.4\%、文セグメンテーション(境界類似度)スコアは88.4%、レイテンシはベースラインよりも3倍低い。
さらに, inking ドメイン上で nlp を実行する際の課題について考察する。
この新しいタスクのために、コードとデータセットの両方をリリースします。
関連論文リスト
- A Novel Two-Step Fine-Tuning Pipeline for Cold-Start Active Learning in Text Classification Tasks [7.72751543977484]
本研究は, 寒冷開始シナリオにおけるアクティブラーニング(AL)タスクにおけるBERTベースのコンテキスト埋め込みの有効性について検討する。
私たちの主な貢献は、より堅牢な微調整パイプラインであるDoTCALの提案です。
本評価では,Bag of Words (BoW), Latent Semantic Indexing (LSI), FastTextなど,BERTベースの埋め込みと他の一般的なテキスト表現パラダイムとの対比を行った。
論文 参考訳(メタデータ) (2024-07-24T13:50:21Z) - IDAS: Intent Discovery with Abstractive Summarization [16.731183915325584]
目的発見における近年の競合手法は,抽象的な要約に基づく発話のクラスタリングによってより優れることを示す。
我々は、大規模言語モデルに促すことで、記述的発話ラベルの集合を収集するIDASアプローチに貢献する。
発話とそのノイズラベルは、凍結した事前訓練されたエンコーダによって符号化され、その後クラスタ化され、潜伏した意図を回復する。
論文 参考訳(メタデータ) (2023-05-31T12:19:40Z) - Text Summarization with Oracle Expectation [88.39032981994535]
抽出要約は、文書の中で最も重要な文を識別し、連結することによって要約を生成する。
ほとんどの要約データセットは、文書文が要約に値するかどうかを示す金のラベルを持っていない。
本稿では,ソフトな予測に基づく文ラベルを生成する,シンプルで効果的なラベル付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:10:08Z) - SummaC: Re-Visiting NLI-based Models for Inconsistency Detection in
Summarization [27.515873862013006]
要約の鍵となる要件は、実際に入力文書と整合性を持つことである。
これまでの研究では、不整合検出に適用した場合、自然言語推論モデルが競合的に動作しないことが判明した。
我々は,NLIモデルがこのタスクに有効に使用できるSummaCConvという,高効率で軽量な手法を提案する。
論文 参考訳(メタデータ) (2021-11-18T05:02:31Z) - Question-Based Salient Span Selection for More Controllable Text
Summarization [67.68208237480646]
本稿では,質問応答(QA)信号を要約モデルに組み込む手法を提案する。
提案手法は,入力文書中の有声名詞句(NP)を自動生成することで同定する。
このQAベースの信号は、2段階の要約モデルに組み込まれ、まず分類モデルを用いて入力文書中の有能なNPをマークし、その後、条件付きで要約を生成する。
論文 参考訳(メタデータ) (2021-11-15T17:36:41Z) - NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original
Pre-training Task--Next Sentence Prediction [14.912579358678212]
プロンプトを使用して、プロンプトベース学習やプロンプトラーニングとしても知られる様々な下流タスクを実行することは、最近、プレトレインとファインチューンパラダイムと比較して大きな成功を収めている。
本稿では,RoBERTa や他のモデルに放棄された BERT 独自の事前学習タスク-Next Sentence Prediction (NSP) を用いて,ゼロショットシナリオで複数の NLP タスクを達成しようとする。
トークンレベルの技法とは異なり、我々の文レベルのプロンプトベースの方法であるNSP-BERTは、予測されるプロンプトの長さや位置を固定する必要がなく、エンティティリンクのようなタスクを処理できる。
論文 参考訳(メタデータ) (2021-09-08T11:57:08Z) - Extractive Research Slide Generation Using Windowed Labeling Ranking [8.187395293376667]
本稿では,学術論文のスライドを自動的に生成する手法を提案する。
本手法の文ラベルモジュールは,抽出要約のためのニューラルネットワークモデルSummaRuNNerに基づいている。
論文 参考訳(メタデータ) (2021-06-06T20:56:43Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - Few-shot Slot Tagging with Collapsed Dependency Transfer and
Label-enhanced Task-adaptive Projection Network [61.94394163309688]
本稿では,現在最先端の少数ショット分類モデルであるTapNetに基づくラベル強化タスク適応プロジェクションネットワーク(L-TapNet)を提案する。
実験結果から,本モデルは1ショット設定で14.64点のF1スコアで最強の少ショット学習ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2020-06-10T07:50:44Z) - Self-Supervised Tuning for Few-Shot Segmentation [82.32143982269892]
Few-shotのセグメンテーションは、アノテートされたサンプルがほとんどない各画像ピクセルにカテゴリラベルを割り当てることを目的としている。
既存のメタラーニング手法では, 画像から抽出した視覚的特徴を埋め込み空間に埋め込むと, カテゴリー別識別記述子の生成に失敗する傾向にある。
本稿では,複数のエピソードにまたがる潜在特徴の分布を,自己分割方式に基づいて動的に調整する適応型フレームワークチューニングを提案する。
論文 参考訳(メタデータ) (2020-04-12T03:53:53Z) - Learning to Select Bi-Aspect Information for Document-Scale Text Content
Manipulation [50.01708049531156]
我々は、テキストスタイルの転送とは逆の文書スケールのテキストコンテンツ操作という、新しい実践的なタスクに焦点を当てる。
詳細は、入力は構造化されたレコードと、別のレコードセットを記述するための参照テキストのセットである。
出力は、ソースレコードセットの部分的内容と参照の書き込みスタイルを正確に記述した要約である。
論文 参考訳(メタデータ) (2020-02-24T12:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。