論文の概要: The Fewer Splits are Better: Deconstructing Readability in Sentence
Splitting
- arxiv url: http://arxiv.org/abs/2302.00937v1
- Date: Thu, 2 Feb 2023 08:25:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 14:46:23.776475
- Title: The Fewer Splits are Better: Deconstructing Readability in Sentence
Splitting
- Title(参考訳): 文分割における読みやすさの再構築
- Authors: Tadashi Nomoto
- Abstract要約: 文章分割(文分割)は、文章の単純化のサブフィールドであり、文章を断片に分割すると理解しやすくなるという、証明できない考え方に主に動機付けられている。
特に我々は、文章を2つか3つに分割するかどうかが問題なのかと尋ねる。Amazon Mechanical Turkの調査結果を報告する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we focus on sentence splitting, a subfield of text
simplification, motivated largely by an unproven idea that if you divide a
sentence in pieces, it should become easier to understand. Our primary goal in
this paper is to find out whether this is true. In particular, we ask, does it
matter whether we break a sentence into two or three? We report on our findings
based on Amazon Mechanical Turk.
More specifically, we introduce a Bayesian modeling framework to further
investigate to what degree a particular way of splitting the complex sentence
affects readability, along with a number of other parameters adopted from
diverse perspectives, including clinical linguistics, and cognitive
linguistics. The Bayesian modeling experiment provides clear evidence that
bisecting the sentence leads to enhanced readability to a degree greater than
what we create by trisection.
- Abstract(参考訳): 本研究は,文の分割に焦点をあて,文章の簡易化のサブフィールドである文の分割に着目する。
この論文の主な目標は、これが本当かどうかを調べることです。
特に、文を2つか3つに分けるかは問題なのでしょうか?
amazon mechanical turkに基づく結果について報告する。
より具体的には、複雑な文を分割する特定の方法が可読性にどの程度影響するかを、臨床言語学や認知言語学など様々な観点から採用されている他のパラメータとともに、さらに調査するためのベイズモデリングフレームワークを導入する。
ベイズ模型実験は、文を二分すると、三分法で作るものよりも可読性が高まるという明確な証拠を与える。
関連論文リスト
- Linguistic features for sentence difficulty prediction in ABSA [0.3172761915061083]
ドメインの多様性と構文の多様性が難易度に与える影響について検討する。
私たちは文の難易度を定義する2つの方法を採用している。
また、文レベルでの難易度を推定することを目的とした9つの言語的特徴も定義する。
論文 参考訳(メタデータ) (2024-02-05T16:31:03Z) - How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
数学的解析とウィキペディアデータの実験を組み合わせることで、埋め込み層と自己保持層がトピック構造をエンコードしていることを示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - Measure More, Question More: Experimental Studies on Transformer-based
Language Models and Complement Coercion [2.1320960069210484]
トランスフォーマーベースの言語モデルは、自然言語理解タスクの配列に強いパフォーマンスを示している。
補体強制現象を用いて,これらのモデルが暗黙の意味にどのように反応するかを検討する。
論文 参考訳(メタデータ) (2022-12-20T18:46:20Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Are Representations Built from the Ground Up? An Empirical Examination
of Local Composition in Language Models [91.3755431537592]
構成的・非構成的句を表現することは言語理解にとって重要である。
まず,より長いフレーズのLM-内部表現を,その構成成分から予測する問題を定式化する。
意味的構成性の人間の判断と相関する予測精度を期待するが、大部分はそうではない。
論文 参考訳(メタデータ) (2022-10-07T14:21:30Z) - Neural reality of argument structure constructions [19.325001405556648]
語彙論的言語理論では、議論構造は動詞の意味から予測可能であると仮定される。
対照的に、構成文法学者は、議論構造は動詞とは異なる構成で符号化されていることを提唱している。
ここでは、トランスフォーマーに基づく言語モデルにおける引数構造構造の存在を探索するために、いくつかの心理言語学的研究を適用する。
論文 参考訳(メタデータ) (2022-02-24T18:02:50Z) - Clustering and Network Analysis for the Embedding Spaces of Sentences
and Sub-Sentences [69.3939291118954]
本稿では,文とサブ文の埋め込みを対象とする包括的クラスタリングとネットワーク解析について検討する。
その結果,1つの手法が最もクラスタリング可能な埋め込みを生成することがわかった。
一般に、スパン部分文の埋め込みは、原文よりもクラスタリング特性が優れている。
論文 参考訳(メタデータ) (2021-10-02T00:47:35Z) - BiSECT: Learning to Split and Rephrase Sentences with Bitexts [25.385804867037937]
この分割・言い換え処理のための新しいデータセットと新しいモデルを導入する。
BiSECTトレーニングデータは、100万の長い英語文と、より短く、意味に等価な英語文からなる。
コーパスの例を分類し、これらのカテゴリを新しいモデルで使用することにより、入力文の特定の領域を分割して編集できるようにします。
論文 参考訳(メタデータ) (2021-09-10T17:30:14Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z) - A Comparative Study on Structural and Semantic Properties of Sentence
Embeddings [77.34726150561087]
本稿では,関係抽出に広く利用されている大規模データセットを用いた実験セットを提案する。
異なる埋め込み空間は、構造的および意味的特性に対して異なる強度を持つことを示す。
これらの結果は,埋め込み型関係抽出法の開発に有用な情報を提供する。
論文 参考訳(メタデータ) (2020-09-23T15:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。