論文の概要: An Inclusive Notion of Text
- arxiv url: http://arxiv.org/abs/2211.05604v1
- Date: Thu, 10 Nov 2022 14:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:03:38.993407
- Title: An Inclusive Notion of Text
- Title(参考訳): テキストの包括的表記法
- Authors: Ilia Kuznetsov, Iryna Gurevych
- Abstract要約: テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
本稿では,テキストデータの生成と変換を議論する共通用語を提案する。
この分類法を用いて、保守的な言語中心の視点を超えてテキストの概念を拡張する既存の研究を調査する。
- 参考スコア(独自算出の注目度): 69.36678873492373
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Natural language processing researchers develop models of grammar, meaning
and human communication based on written text. Due to task and data
differences, what is considered text can vary substantially across studies. A
conceptual framework for systematically capturing these differences is lacking.
We argue that clarity on the notion of text is crucial for reproducible and
generalizable NLP. Towards that goal, we propose common terminology to discuss
the production and transformation of textual data, and introduce a two-tier
taxonomy of linguistic and non-linguistic elements that are available in
textual sources and can be used in NLP modeling. We apply this taxonomy to
survey existing work that extends the notion of text beyond the conservative
language-centered view. We outline key desiderata and challenges of the
emerging inclusive approach to text in NLP, and suggest systematic
community-level reporting as a crucial next step to consolidate the discussion.
- Abstract(参考訳): 自然言語処理の研究者は、文章に基づく文法、意味、コミュニケーションのモデルを開発する。
タスクとデータの違いにより、テキストと見なされるものは研究によって大きく異なる。
これらの違いを体系的に捉えるための概念的な枠組みが欠けている。
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である。
その目的に向けて,テキストデータの生成と変換を議論する共通用語を提案し,NLPモデリングで使用可能な言語的および非言語的要素の2階層分類を導入した。
この分類法を用いて、保守的な言語中心の視点を超えてテキストの概念を拡張する既存の研究を調査する。
我々は,NLPにおけるテキストへの包括的アプローチの鍵となるデシラタと課題を概説し,議論を統合する上で重要な次のステップとして,体系的なコミュニティレベルの報告を提案する。
関連論文リスト
- From Word Vectors to Multimodal Embeddings: Techniques, Applications, and Future Directions For Large Language Models [17.04716417556556]
本稿では,分布仮説や文脈的類似性といった基礎概念を概観する。
本稿では, ELMo, BERT, GPTなどのモデルにおいて, 静的な埋め込みと文脈的埋め込みの両方について検討する。
議論は文章や文書の埋め込みにまで拡張され、集約メソッドや生成トピックモデルをカバーする。
モデル圧縮、解釈可能性、数値エンコーディング、バイアス緩和といった高度なトピックを分析し、技術的な課題と倫理的意味の両方に対処する。
論文 参考訳(メタデータ) (2024-11-06T15:40:02Z) - Automatic and Human-AI Interactive Text Generation [27.05024520190722]
本チュートリアルは、最先端の自然言語生成研究の概要を提供する。
テキストからテキストへの生成タスクは、セマンティック一貫性とターゲット言語スタイルの観点からより制約される。
論文 参考訳(メタデータ) (2023-10-05T20:26:15Z) - Improving Mandarin Prosodic Structure Prediction with Multi-level
Contextual Information [68.89000132126536]
本研究は,音声間言語情報を用いて韻律構造予測(PSP)の性能を向上させることを提案する。
提案手法は,韻律語(PW),韻律語(PPH),国際語句(IPH)の予測におけるF1スコアの向上を実現する。
論文 参考訳(メタデータ) (2023-08-31T09:19:15Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Revise and Resubmit: An Intertextual Model of Text-based Collaboration
in Peer Review [52.359007622096684]
ピアレビューは、ほとんどの科学分野における出版プロセスの重要な要素である。
既存のNLP研究は個々のテキストの分析に重点を置いている。
編集補助は、しばしばテキストのペア間の相互作用をモデル化する必要がある。
論文 参考訳(メタデータ) (2022-04-22T16:39:38Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。