論文の概要: Improving Segmentation for Technical Support Problems
- arxiv url: http://arxiv.org/abs/2005.11055v1
- Date: Fri, 22 May 2020 08:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 09:07:23.335299
- Title: Improving Segmentation for Technical Support Problems
- Title(参考訳): 技術支援問題に対するセグメンテーションの改善
- Authors: Kushal Chauhan and Abhirut Gupta
- Abstract要約: 技術的支援の問題はしばしば長く複雑である。
それらは通常、問題のユーザ記述、設定、解決を試みるステップを含む。
これらの要素は、問題解決のための潜在的に重要な情報を含んでいる。
しかし、それらは自然言語用に設計されたツールによって正しく解析することはできない。
- 参考スコア(独自算出の注目度): 12.982941756429952
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Technical support problems are often long and complex. They typically contain
user descriptions of the problem, the setup, and steps for attempted
resolution. Often they also contain various non-natural language text elements
like outputs of commands, snippets of code, error messages or stack traces.
These elements contain potentially crucial information for problem resolution.
However, they cannot be correctly parsed by tools designed for natural
language. In this paper, we address the problem of segmentation for technical
support questions. We formulate the problem as a sequence labelling task, and
study the performance of state of the art approaches. We compare this against
an intuitive contextual sentence-level classification baseline, and a state of
the art supervised text-segmentation approach. We also introduce a novel
component of combining contextual embeddings from multiple language models
pre-trained on different data sources, which achieves a marked improvement over
using embeddings from a single pre-trained language model. Finally, we also
demonstrate the usefulness of such segmentation with improvements on the
downstream task of answer retrieval.
- Abstract(参考訳): 技術的サポートの問題はしばしば長く複雑である。
それらは通常、問題のユーザ記述、設定、解決を試みるステップを含む。
コマンドの出力、コードのスニペット、エラーメッセージ、スタックトレースなど、さまざまな非自然言語テキスト要素も含むことが多い。
これらの要素は問題解決のための潜在的に重要な情報を含んでいる。
しかし、自然言語用に設計されたツールでは正しく解析できない。
本稿では,技術支援問題に対するセグメンテーションの問題に対処する。
本稿では,課題を逐次ラベリングタスクとして定式化し,最先端技術について検討する。
本稿では,直感的な文脈文レベルの分類基準と,テクストによるテキスト分割手法の現状を比較した。
また、異なるデータソース上で事前学習された複数の言語モデルからのコンテキスト埋め込みを組み合わせる新しいコンポーネントを導入し、単一の事前学習された言語モデルからの埋め込みを使用することよりも顕著な改善を実現した。
最後に,回答検索のダウンストリームタスクの改善とともに,このようなセグメンテーションの有用性を示す。
関連論文リスト
- A General Framework for Producing Interpretable Semantic Text Embeddings [15.942250216505808]
algoCQG-MBQAは、様々なタスクにまたがる解釈可能なセマンティックテキスト埋め込みを生成するためのフレームワークである。
我々は、広範囲な実験とアブレーション研究を通じて、algoCQG-MBQAの有効性と解釈可能性を検証する。
論文 参考訳(メタデータ) (2024-10-04T13:51:19Z) - Leveraging Open-Vocabulary Diffusion to Camouflaged Instance
Segmentation [59.78520153338878]
テキスト・ツー・イメージ拡散技術は、テキスト記述から高品質な画像を生成する素晴らしい能力を示している。
そこで本研究では,オープン語彙を応用した最先端拡散モデルを用いて,多スケールのテキスト・視覚的特徴を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-29T07:59:07Z) - Segmenting Messy Text: Detecting Boundaries in Text Derived from
Historical Newspaper Images [0.0]
新聞の結婚発表リストを1つの発表単位に分けるという,困難なテキストセグメンテーションの課題について考察する。
多くの場合、情報は文に構造化されず、隣接するセグメントは互いに位相的に区別されない。
本稿では,このようなテキストをセグメント化するための新しいディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2023-12-20T05:17:06Z) - A Comparative Study of Transformer-based Neural Text Representation
Techniques on Bug Triaging [8.831760500324318]
我々は、バグトリアージのタスクにおいて、ファイントゥーントランスフォーマーベースの言語モデルに関する最初の調査の1つを提供している。
DeBERTaは、開発者とコンポーネントの割り当てのトリアージタスクの中で、最も効果的なテクニックです。
論文 参考訳(メタデータ) (2023-10-10T18:09:32Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Conjunct Resolution in the Face of Verbal Omissions [51.220650412095665]
本稿では,テキスト上で直接動作する接続分解タスクを提案し,コーディネーション構造に欠けている要素を復元するために,分割・言い換えパラダイムを利用する。
クラウドソースアノテーションによる自然に発生する動詞の省略例を10万件以上を含む,大規模なデータセットをキュレートする。
我々は、このタスクのために様々な神経ベースラインをトレーニングし、最良の手法が適切なパフォーマンスを得る一方で、改善のための十分なスペースを残していることを示す。
論文 参考訳(メタデータ) (2023-05-26T08:44:02Z) - To Augment or Not to Augment? A Comparative Study on Text Augmentation
Techniques for Low-Resource NLP [0.0]
本稿では,構文の変更を行うテキスト拡張手法の3つのカテゴリについて検討する。
音声のタグ付けや依存性解析,セマンティックロールのラベル付けなどにおいて,多種多様な言語ファミリに対して比較を行った。
以上の結果から,mBERTに基づくベースラインの強化により,より高機能化が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-11-18T10:52:48Z) - Sequence-to-Sequence Lexical Normalization with Multilingual
Transformers [3.3302293148249125]
現在の自然言語処理のベンチマークタスクには、非公式な日々のデジタルコミュニケーションで使用されるテキストと質的に異なるテキストが含まれている。
この不一致は、実世界のデータに基づいて微調整された場合、最先端のNLPモデルの大幅な性能劣化を引き起こした。
機械翻訳問題として,mBARTに基づく文レベルのシーケンス・ツー・シーケンスモデルを提案する。
論文 参考訳(メタデータ) (2021-10-06T15:53:20Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - TextScanner: Reading Characters in Order for Robust Scene Text
Recognition [60.04267660533966]
TextScannerはシーンテキスト認識の代替手法である。
文字クラス、位置、順序に対する画素単位のマルチチャネルセグメンテーションマップを生成する。
また、コンテキストモデリングにRNNを採用し、文字の位置とクラスを並列で予測する。
論文 参考訳(メタデータ) (2019-12-28T07:52:00Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。