論文の概要: Measuring vagueness and subjectivity in texts: from symbolic to neural
VAGO
- arxiv url: http://arxiv.org/abs/2309.06132v2
- Date: Mon, 23 Oct 2023 18:16:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 23:43:39.845934
- Title: Measuring vagueness and subjectivity in texts: from symbolic to neural
VAGO
- Title(参考訳): テキストの曖昧さと主観性の測定:象徴的から神経迷走神経へ
- Authors: Benjamin Icard, Vincent Claveau, Ghislain Atemezing and Paul \'Egr\'e
- Abstract要約: テキストにおける曖昧さと主観性の自動測定に対するハイブリッド手法を提案する。
まず、専門家システムVAGOを紹介し、それを事実対意見文の小さなベンチマークで説明し、次に、より大きいフランスのプレスコーパスFreSaDaでテストし、風刺と通常のテキストにおける主観的マーカーの高頻度性を確認する。
VAGO のニューラルクローンを BERT のようなアーキテクチャで構築し,FreSaDa 上で得られた記号的VAGO スコアに基づいて学習する。
- 参考スコア(独自算出の注目度): 1.9701992579697072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a hybrid approach to the automated measurement of vagueness and
subjectivity in texts. We first introduce the expert system VAGO, we illustrate
it on a small benchmark of fact vs. opinion sentences, and then test it on the
larger French press corpus FreSaDa to confirm the higher prevalence of
subjective markers in satirical vs. regular texts. We then build a neural clone
of VAGO, based on a BERT-like architecture, trained on the symbolic VAGO scores
obtained on FreSaDa. Using explainability tools (LIME), we show the interest of
this neural version for the enrichment of the lexicons of the symbolic version,
and for the production of versions in other languages.
- Abstract(参考訳): テキストにおける曖昧さと主観性の自動測定に対するハイブリッド手法を提案する。
まず、専門家システムVAGOを紹介し、それを事実対意見文の小さなベンチマークで説明し、次に、より大きいフランスのプレスコーパスFreSaDaでテストし、風刺と通常のテキストにおける主観的マーカーの高頻度性を確認する。
VAGO のニューラルクローンを BERT のようなアーキテクチャで構築し,FreSaDa 上で得られた記号的VAGO スコアに基づいて学習する。
説明可能性ツール(LIME)を用いて、シンボル版の語彙を豊かにし、他の言語でバージョンを作成するために、このニューラルバージョンの興味を示す。
関連論文リスト
- Story Visualization by Online Text Augmentation with Context Memory [64.86944645907771]
オンラインテキスト拡張による双方向トランスフォーマーフレームワークのための新しいメモリアーキテクチャを提案する。
提案手法は, FID, キャラクタF1, フレーム精度, BLEU-2/3, R精度など, 様々な指標において, 芸術の状態を著しく上回っている。
論文 参考訳(メタデータ) (2023-08-15T05:08:12Z) - Exploring Hybrid Linguistic Features for Turkish Text Readability [0.0]
本稿では,トルコ語テキストの自動可読性評価に関する最初の総合的研究について述べる。
我々は、最先端の可読性ツールを開発するために、最先端のニューラルネットワークモデルと語彙、モルフォシンタクティック、構文、談話レベルの言語的特徴を組み合わせる。
論文 参考訳(メタデータ) (2023-06-06T15:32:22Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - GENIUS: Sketch-based Language Model Pre-training via Extreme and
Selective Masking for Text Generation and Augmentation [76.7772833556714]
本稿では,スケッチを入力として用いた条件付きテキスト生成モデルGENIUSを紹介する。
genIUSは、スケッチの目的から新しく再構築された大規模なテキストコーパスで事前訓練されている。
様々な自然言語処理(NLP)タスクに対して, GENIUS は強力かつ使いやすいデータ拡張ツールとして利用できることを示す。
論文 参考訳(メタデータ) (2022-11-18T16:39:45Z) - Let the CAT out of the bag: Contrastive Attributed explanations for Text [10.703346059899637]
テキスト(CAT)のコントラスト的説明法を提案する。
提案手法は,自然言語のテキストデータに対して,新しいツイストを用いた対照的な説明を提供する。
定性的な例とユーザスタディを通して、これらの属性により、我々の手法がより多くの洞察を伝達するだけでなく、より良い品質(コントラスト)のテキストをもたらすことを示す。
論文 参考訳(メタデータ) (2021-09-16T13:44:55Z) - Sentence Bottleneck Autoencoders from Transformer Language Models [53.350633961266375]
我々は、事前訓練されたフリーズトランスフォーマー言語モデルから文レベルのオートエンコーダを構築する。
我々は、文ボトルネックと1層修飾トランスフォーマーデコーダのみを訓練しながら、マスク付き言語モデリングの目的を生成的・認知的言語として適応する。
本研究では,テキスト類似性タスク,スタイル転送,単一文分類タスクにおける事前学習されたトランスフォーマーからの表現をGLUEベンチマークで抽出する手法よりも,大規模な事前学習モデルよりも少ないパラメータを用いて,より高品質な文表現を実現することを示す。
論文 参考訳(メタデータ) (2021-08-31T19:39:55Z) - From Machine Translation to Code-Switching: Generating High-Quality
Code-Switched Text [14.251949110756078]
我々は、現在最先端のニューラルマシン翻訳モデルを適用し、ヒンディー語-英語のコード切替文を生成する。
言語モデリングタスクにおいて,難易度が大幅に低下することを示す。
また、下流のコードスイッチングされた自然言語推論タスクに対して、私たちのテキストを使用した改善を示す。
論文 参考訳(メタデータ) (2021-07-14T04:46:39Z) - Graph Convolutional Network for Swahili News Classification [78.6363825307044]
この研究は、半教師付きスワヒリニュース分類のタスクにおいて、テキストグラフ畳み込みネットワーク(Text GCN)が従来の自然言語処理ベンチマークより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-03-16T21:03:47Z) - DiscreTalk: Text-to-Speech as a Machine Translation Problem [52.33785857500754]
本稿ではニューラルマシン翻訳(NMT)に基づくエンドツーエンドテキスト音声合成(E2E-TTS)モデルを提案する。
提案モデルは,非自己回帰ベクトル量子化変分オートエンコーダ(VQ-VAE)モデルと自己回帰トランスフォーマー-NMTモデルという2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-05-12T02:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。