論文の概要: Text and author-level political inference using heterogeneous knowledge
representations
- arxiv url: http://arxiv.org/abs/2206.12293v1
- Date: Fri, 24 Jun 2022 13:45:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 18:36:30.474277
- Title: Text and author-level political inference using heterogeneous knowledge
representations
- Title(参考訳): 異種知識表現を用いたテキストと著者レベルの政治的推論
- Authors: Samuel Caetano da Silva and Ivandre Paraboni
- Abstract要約: 自然言語処理(NLP)において、テキストデータから政治的にチャージされた情報の推測がポピュラーな研究トピックである
本研究は、英語とポルトガル語の両方のテキストからの政治的推論のための代替モデル構成を比較する一連の実験について述べる。
結果は、あるテキスト表現が、複数の実験的な設定で代替よりも優れていることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The inference of politically-charged information from text data is a popular
research topic in Natural Language Processing (NLP) at both text- and
author-level. In recent years, studies of this kind have been implemented with
the aid of representations from transformers such as BERT. Despite considerable
success, however, we may ask whether results may be improved even further by
combining transformed-based models with additional knowledge representations.
To shed light on this issue, the present work describes a series of experiments
to compare alternative model configurations for political inference from text
in both English and Portuguese languages. Results suggest that certain text
representations - in particular, the combined use of BERT pre-trained language
models with a syntactic dependency model - may outperform the alternatives
across multiple experimental settings, making a potentially strong case for
further research in the use of heterogeneous text representations in these and
possibly other NLP tasks.
- Abstract(参考訳): テキストデータから政治的にチャージされた情報の推測は、自然言語処理(NLP)においてテキストレベルと著者レベルの両方で人気のある研究トピックである。
近年,BERT などの変換器の表現の助けを借りて,このような研究が実施されている。
しかし、かなりの成功にもかかわらず、変換ベースのモデルと追加の知識表現を組み合わせることで、結果がさらに改善されるかどうかを問うことができる。
この問題に目を向けるべく,本研究では,英語とポルトガル語のテキストから政治的推論のための代替モデル構成を比較する実験について述べる。
結果は、特定のテキスト表現(特に、構文依存モデルによるBERT事前訓練言語モデルの使用)が、複数の実験的な設定で代替案よりも優れていることを示唆し、これらや他のNLPタスクにおける異種テキスト表現の使用に関するさらなる研究において、潜在的に強いケースとなる可能性があることを示唆している。
関連論文リスト
- Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Optimizing text representations to capture (dis)similarity between
political parties [1.2891210250935146]
政党間の相互類似性をモデル化する問題を考察する。
我々の研究課題は、ロバストなテキスト表現を作成するのに必要な構造情報のレベルである。
我々は、2021年の連邦選挙におけるドイツの政党の宣言について、我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-10-21T14:24:57Z) - Syntax-informed Question Answering with Heterogeneous Graph Transformer [2.139714421848487]
本稿では、事前学習されたニューラルネットワークモデルを拡張し、微調整する言語インフォームド質問応答手法を提案する。
本稿では,トークンと仮想トークンを接続する依存関係グラフ構造と領域グラフィック構造という形で,構文情報の追加によるアプローチについて説明する。
論文 参考訳(メタデータ) (2022-04-01T07:48:03Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Ground-Truth, Whose Truth? -- Examining the Challenges with Annotating
Toxic Text Datasets [26.486492641924226]
本研究は,本質的な問題に光を当てることを目的として,選択された有毒なテキストデータセットについて検討する。
3つの有毒テキストデータセットからサンプルを再アノテートし、有毒テキストサンプルにアノテートするマルチラベルアプローチがデータセットの品質向上に役立ちます。
論文 参考訳(メタデータ) (2021-12-07T06:58:22Z) - Intrinsic Probing through Dimension Selection [69.52439198455438]
現代のほとんどのNLPシステムは、様々なタスクにおいて驚くほど高いパフォーマンスが得られる事前訓練された文脈表現を使用している。
このような高いパフォーマンスは、ある種の言語構造がこれらの表現に根ざしない限りはあり得ず、それを探究する研究が盛んに行われている。
本稿では,言語情報が表現内でどのように構造化されているかを示す内在的探索と,先行研究で広く普及している外在的探索とを区別し,抽出に成功したことを示すことによって,そのような情報の存在を主張するのみである。
論文 参考訳(メタデータ) (2020-10-06T15:21:08Z) - Contextualized Spoken Word Representations from Convolutional
Autoencoders [2.28438857884398]
本稿では,畳み込み型オートエンコーダに基づくニューラルアーキテクチャを提案し,様々な長さの音声単語の構文的かつ意味論的に適切な文脈化表現をモデル化する。
提案モデルでは,他の2つの言語モデルと比較して頑健性を示すことができた。
論文 参考訳(メタデータ) (2020-07-06T16:48:11Z) - Coreferential Reasoning Learning for Language Representation [88.14248323659267]
本稿では,コンテキスト内でコアファーデンシャル関係をキャプチャ可能な新しい言語表現モデルCorefBERTを提案する。
実験の結果,既存のベースラインモデルと比較して,CorefBERTは下流のNLPタスクにおいて一貫した大幅な改善を達成できることがわかった。
論文 参考訳(メタデータ) (2020-04-15T03:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。