論文の概要: POSHAN: Cardinal POS Pattern Guided Attention for News Headline
Incongruence
- arxiv url: http://arxiv.org/abs/2111.03547v1
- Date: Fri, 5 Nov 2021 15:09:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-08 14:19:12.017849
- Title: POSHAN: Cardinal POS Pattern Guided Attention for News Headline
Incongruence
- Title(参考訳): POSHAN: ニュースヘッドライン同期のための心POSパターンガイド
- Authors: Rahul Mishra and Shuo Zhang
- Abstract要約: 本稿では,新しい音声パターン(POS)パターンに基づく階層型アテンションネットワークを用いたニューラルアテンションベースソリューションを提案する。
さらに,文脈的に重要な基数値と隣接する単語の単語埋め込みを用いた新しい基数句誘導注意法について検討した。
POSHANのアブレーション研究は,基数POSタグパターンに基づく階層的注意が基数値を含む場合において非常に有効であることを示している。
- 参考スコア(独自算出の注目度): 14.546913949806124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic detection of click-bait and incongruent news headlines is crucial
to maintaining the reliability of the Web and has raised much research
attention. However, most existing methods perform poorly when news headlines
contain contextually important cardinal values, such as a quantity or an
amount. In this work, we focus on this particular case and propose a neural
attention based solution, which uses a novel cardinal Part of Speech (POS) tag
pattern based hierarchical attention network, namely POSHAN, to learn effective
representations of sentences in a news article. In addition, we investigate a
novel cardinal phrase guided attention, which uses word embeddings of the
contextually-important cardinal value and neighbouring words. In the
experiments conducted on two publicly available datasets, we observe that the
proposed methodgives appropriate significance to cardinal values and
outperforms all the baselines. An ablation study of POSHAN shows that the
cardinal POS-tag pattern-based hierarchical attention is very effective for the
cases in which headlines contain cardinal values.
- Abstract(参考訳): クリックベイトと矛盾するニュースの見出しを自動的に検出することは、Webの信頼性を維持するために不可欠であり、多くの研究の注目を集めている。
しかし、ほとんどの既存手法は、ニュース見出しが量や量などの文脈的に重要な基数を含む場合、性能が劣る。
そこで本研究では,本事例に着目し,新しい音声(pos)タグパターンに基づく階層的注意ネットワークであるposhanを用いて,ニュース記事中の文章の効果的な表現を学習するニューラル・アテンション・ベース・ソリューションを提案する。
また,文脈的に重要な基数値と隣接した単語の単語埋め込みを用いた新しい基数句指導注意について検討する。
2つの公開データセットで実施した実験では,提案手法が基数値に対して適切な意味を持ち,すべての基数を上回ることを観察した。
POSHANのアブレーション研究は,基数POSタグパターンに基づく階層的注意が基数値を含む場合において非常に有効であることを示している。
関連論文リスト
- Generic Attention-model Explainability by Weighted Relevance
Accumulation [9.816810016935541]
本稿では,トークン値の重要性を考慮に入れた重み付き関連性戦略を提案する。
提案手法を評価するために,CLIPをベースとした2段階モデルCLIPmapperを提案する。
論文 参考訳(メタデータ) (2023-08-20T12:02:30Z) - Perturbation-based Self-supervised Attention for Attention Bias in Text
Classification [31.144857032681905]
本稿では,摂動に基づく自己監督型アテンションアプローチを提案し,注意学習の指導を行う。
文中のすべての単語に、その意味や予測を変えることなく、可能な限り多くのノイズを加えます。
3つのテキスト分類タスクの実験結果から,本手法は現在の注目モデルの性能を大幅に向上させることができることが示された。
論文 参考訳(メタデータ) (2023-05-25T03:18:18Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - LadRa-Net: Locally-Aware Dynamic Re-read Attention Net for Sentence
Semantic Matching [66.65398852962177]
文意味マッチングのための新しい動的再読ネットワーク(DRr-Net)を開発した。
DRr-Netをローカルに認識する動的再読み取り注意ネット(LadRa-Net)に拡張する
2つの一般的な文意味マッチングタスクの実験により、DRr-Netは文意味マッチングの性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-08-06T02:07:04Z) - MatchVIE: Exploiting Match Relevancy between Entities for Visual
Information Extraction [48.55908127994688]
我々は、VIE(MatchVIE)のためのグラフニューラルネットワークに基づく新しいキー値マッチングモデルを提案する。
関連性評価に基づくキー値マッチングにより、提案したMatchVIEは、認識を様々な意味論にバイパスすることができる。
我々は、エンコードされた値の不安定性に対処するために、単純だが効果的な操作であるNum2Vecを導入する。
論文 参考訳(メタデータ) (2021-06-24T12:06:29Z) - Improve the Interpretability of Attention: A Fast, Accurate, and
Interpretable High-Resolution Attention Model [6.906621279967867]
そこで本稿では,タスク関連情報を取り込むための,非線形代表非パラメトリックアテンション(BR-NPA)戦略を提案する。
提案したモデルは、分類が関与する様々な近代的な深層モデルに容易に適応できる。
また、通常のニューラルアテンションモジュールよりも正確で高速で、メモリフットプリントも小さい。
論文 参考訳(メタデータ) (2021-06-04T15:57:37Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - ReSCo-CC: Unsupervised Identification of Key Disinformation Sentences [3.7405995078130148]
本稿では,信頼できない文書に含まれる重要な偽情報を含む文を識別する新規な教師なしタスクを提案する。
そこで我々は,まず,タスク用に設計された特徴空間内に文を埋め込むことから始まる,3段階の統計的NLPソリューションを設計する。
本手法は, コア情報の同定を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-21T08:53:36Z) - Attention based Writer Independent Handwriting Verification [0.0]
我々は,2次元入力の特徴空間における有意点を捉えるために,クロスアテンション機構とソフトアテンション機構を実装し,統合する。
ネットワークの複数のレベルからアテンションマップを抽出することにより、提案した決定に対して意味のある説明を生成する。
論文 参考訳(メタデータ) (2020-09-07T16:28:16Z) - Salience Estimation with Multi-Attention Learning for Abstractive Text
Summarization [86.45110800123216]
テキスト要約のタスクでは、単語、フレーズ、文のサリエンス推定が重要な要素である。
本稿では,サラレンス推定のための2つの新しい注目学習要素を含むマルチアテンション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T02:38:56Z) - StarNet: towards Weakly Supervised Few-Shot Object Detection [87.80771067891418]
本稿では、終端から終端までの識別可能な非パラメトリック星モデル検出と分類ヘッドを特徴とする数ショットモデルであるStarNetを紹介する。
このヘッドを通じて、バックボーンは画像レベルのラベルのみを使用してメタトレーニングされ、これまで目に見えないいくつかのテストタスクのカテゴリを共同でローカライズおよび分類するための優れた機能を生成する。
数発の検知器であるため、StarNetは事前トレーニングや新しいクラス適応のためのバウンディングボックスアノテーションを一切必要としない。
論文 参考訳(メタデータ) (2020-03-15T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。