論文の概要: Neural Sequence Segmentation as Determining the Leftmost Segments
- arxiv url: http://arxiv.org/abs/2104.07217v1
- Date: Thu, 15 Apr 2021 03:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-16 15:04:42.711242
- Title: Neural Sequence Segmentation as Determining the Leftmost Segments
- Title(参考訳): 最左側のセグメントを決定する神経配列のセグメンテーション
- Authors: Yangming Li, Lemao Liu, Kaisheng Yao
- Abstract要約: 自然言語文をセグメントレベルで段階的に分割する新しい枠組みを提案する。
セグメンテーションのすべてのステップにおいて、残りのシーケンスの一番左のセグメントを認識する。
3つのデータセットにまたがる構文的チャンキングと中国語のパート・オブ・スパイチ・タギングに関する広範な実験を行った。
- 参考スコア(独自算出の注目度): 25.378188980430256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior methods to text segmentation are mostly at token level. Despite the
adequacy, this nature limits their full potential to capture the long-term
dependencies among segments. In this work, we propose a novel framework that
incrementally segments natural language sentences at segment level. For every
step in segmentation, it recognizes the leftmost segment of the remaining
sequence. Implementations involve LSTM-minus technique to construct the phrase
representations and recurrent neural networks (RNN) to model the iterations of
determining the leftmost segments. We have conducted extensive experiments on
syntactic chunking and Chinese part-of-speech (POS) tagging across 3 datasets,
demonstrating that our methods have significantly outperformed previous all
baselines and achieved new state-of-the-art results. Moreover, qualitative
analysis and the study on segmenting long-length sentences verify its
effectiveness in modeling long-term dependencies.
- Abstract(参考訳): テキストセグメンテーションの以前のメソッドは、主にトークンレベルにある。
等価性にもかかわらず、この性質はセグメント間の長期的な依存関係をキャプチャする可能性を完全に制限する。
本研究では,自然言語文をセグメントレベルで段階的に分割する新しいフレームワークを提案する。
セグメンテーションのすべてのステップにおいて、残りのシーケンスの一番左のセグメントを認識する。
実装には、フレーズ表現を構築するlstm-minus技術と、左端セグメントを決定するイテレーションをモデル化するrecurrent neural networks (rnn)が含まれる。
我々は3つのデータセットにまたがる構文的チャンキングと中国語部分音声(POS)のタグ付けに関する広範な実験を行い、我々の手法が過去の全てのベースラインを大きく上回っており、新しい最先端の結果が得られたことを実証した。
さらに,長文の分節化に関する質的分析と研究により,長期依存関係のモデル化の有効性が検証された。
関連論文リスト
- Cross-Domain Semantic Segmentation with Large Language Model-Assisted Descriptor Generation [0.0]
LangSegはコンテキストに敏感できめ細かいサブクラス記述子を利用する新しいセマンティックセマンティックセマンティクス手法である。
我々はLangSegをADE20KとCOCO-Stuffという2つの挑戦的なデータセットで評価し、最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2025-01-27T20:02:12Z) - From Text Segmentation to Smart Chaptering: A Novel Benchmark for
Structuring Video Transcriptions [63.11097464396147]
音声コンテンツに焦点をあてた新しいベンチマークYTSegを導入し、その内容は本質的に非構造的であり、トポロジと構造的にも多様である。
また,高効率な階層分割モデルMiniSegを導入する。
論文 参考訳(メタデータ) (2024-02-27T15:59:37Z) - LISA: Reasoning Segmentation via Large Language Model [68.24075852136761]
そこで我々は,新たなセグメンテーションタスク,すなわち推論セグメンテーションを提案する。
このタスクは、複雑で暗黙的なクエリテキストを与えられたセグメンテーションマスクを出力するように設計されている。
提案するLISA: Large Language Instructed Assistantは,マルチモーダル大規模言語モデルの言語生成能力を継承する。
論文 参考訳(メタデータ) (2023-08-01T17:50:17Z) - Where's the Point? Self-Supervised Multilingual Punctuation-Agnostic
Sentence Segmentation [65.6736056006381]
85言語を対象とした多言語句読解文セグメンテーション法を提案する。
提案手法は,従来の最良文分割ツールを平均6.1%F1ポイントで上回っている。
MTモデルの訓練に使用するセグメンテーションと文のセグメンテーションを一致させる手法を用いて,平均2.3BLEU点の改善を実現する。
論文 参考訳(メタデータ) (2023-05-30T09:49:42Z) - Ensembling Instance and Semantic Segmentation for Panoptic Segmentation [0.0]
メソッドはまず、インスタンスセグメンテーションとセマンティックセグメンテーションを別々に実行し、2つを組み合わせてパン光学セグメンテーション結果を生成する。
トレーニングデータにおけるデータ不均衡問題に対処するために,インスタンスセグメンテーションにおけるMask R-CNNのエキスパートモデルをいくつか追加する。
セグメンテーションでは,様々なバックボーンを持つモデルを訓練し,セグメンテーション結果をさらに強化するアンサンブル戦略を用いた。
論文 参考訳(メタデータ) (2023-04-20T14:02:01Z) - Temporal Segment Transformer for Action Segmentation [54.25103250496069]
本稿では,テキスト・セグメント・トランスフォーマ (textittemporal segment transformer) と呼ぶアテンション・ベース・アプローチを提案する。
主な考え方は、セグメントとフレームの間の注意を用いてセグメント表現を識別することであり、またセグメント間の時間的相関を捉えるためにセグメント間注意を用いる。
このアーキテクチャは,50Salads,GTEA,Breakfastのベンチマークにおいて,最先端の精度を実現していることを示す。
論文 参考訳(メタデータ) (2023-02-25T13:05:57Z) - Context-aware Fine-tuning of Self-supervised Speech Models [56.95389222319555]
微調整におけるコンテキスト,すなわち周辺セグメントの使用について検討する。
我々はコンテキスト認識ファインチューニングと呼ばれる新しいアプローチを提案する。
いくつかの下流タスクに対して,SLUE と Libri-light ベンチマークを用いて提案手法の評価を行った。
論文 参考訳(メタデータ) (2022-12-16T15:46:15Z) - Neural Token Segmentation for High Token-Internal Complexity [7.569526565230962]
原文をワード単位に変換することは、NLPパイプラインにとって重要な前処理ステップである。
本稿では,文脈化トークン表現とチャレベルデコーディングを組み合わせたニューラルセグメンテーションモデルを提案する。
我々のモデルはヘブライ語とアラビア語の分節精度を最先端と比較して大幅に改善したことを示している。
論文 参考訳(メタデータ) (2022-03-21T10:07:17Z) - Unsupervised Word Segmentation with Bi-directional Neural Language Model [11.269066294359138]
学習目的が文の生成確率を最大化することを目的とした教師なしワードセグメンテーションモデルを提案する。
長期および短期の依存関係をよりよく捉えるために,双方向ニューラルネットワークモデルの利用を提案する。
2つの復号アルゴリズムは、両方の方向からのコンテキスト特徴を組み合わせて最終セグメンテーションを生成する。
論文 参考訳(メタデータ) (2021-03-02T02:21:22Z) - Segmenting Natural Language Sentences via Lexical Unit Analysis [47.273602658066196]
本稿では,一般シーケンスセグメンテーションタスクのフレームワークであるLexical Unit Analysis(LUA)について述べる。
LUAは有効なセグメンテーション候補をすべてスコアし、動的プログラミング(DP)を用いて最大スコアを抽出する。
我々は,構文的チャンキング,名前付きエンティティ認識(NER),スロットフィリング,中国語単語セグメンテーション,中国語部分音声タグ付け(POS)を含む5つのタスクについて,15のデータセットにまたがって広範な実験を行った。
論文 参考訳(メタデータ) (2020-12-10T02:31:52Z) - On Target Segmentation for Direct Speech Translation [20.456325305495966]
サブワードレベルのセグメンテーションは、ニューラルマシン翻訳の最先端となった。
8言語方向と多言語訓練を含む3つのベンチマークで2つの手法を比較した。
サブワードレベルのセグメンテーションは、すべての設定で好意的に比較され、1から3のBLEUポイントの範囲で文字レベルのセグメンテーションを上回っている。
論文 参考訳(メタデータ) (2020-09-10T07:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。