論文の概要: Towards Explainability in NLP: Analyzing and Calculating Word Saliency
through Word Properties
- arxiv url: http://arxiv.org/abs/2207.08083v1
- Date: Sun, 17 Jul 2022 06:02:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 16:17:08.126886
- Title: Towards Explainability in NLP: Analyzing and Calculating Word Saliency
through Word Properties
- Title(参考訳): nlpにおける説明可能性に向けて : 単語特性による単語のサリエンシーの分析と計算
- Authors: Jialiang Dong, Zhitao Guan, Longfei Wu, Zijian Zhang
- Abstract要約: 本稿では,「塩分」と「塩分」の関係について考察する。
テキストサンプル中の単語とそれらの特性からサリエンシ値へのマッピングモデルSeq2Saliencyを構築した。
単語の塩分濃度を異なる特性で解析する実験を行った。
- 参考スコア(独自算出の注目度): 4.330880304715002
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The wide use of black-box models in natural language processing brings great
challenges to the understanding of the decision basis, the trustworthiness of
the prediction results, and the improvement of the model performance. The words
in text samples have properties that reflect their semantics and contextual
information, such as the part of speech, the position, etc. These properties
may have certain relationships with the word saliency, which is of great help
for studying the explainability of the model predictions. In this paper, we
explore the relationships between the word saliency and the word properties.
According to the analysis results, we further establish a mapping model,
Seq2Saliency, from the words in a text sample and their properties to the
saliency values based on the idea of sequence tagging. In addition, we
establish a new dataset called PrSalM, which contains each word in the text
samples, the word properties, and the word saliency values. The experimental
evaluations are conducted to analyze the saliency of words with different
properties. The effectiveness of the Seq2Saliency model is verified.
- Abstract(参考訳): 自然言語処理におけるブラックボックスモデルの利用は、決定基盤の理解、予測結果の信頼性、モデル性能の向上に大きな課題をもたらす。
テキストサンプル中の単語は、その意味や文脈情報を反映する特性を持ち、例えば、音声の一部、位置などである。
これらの性質は、saliencyという単語と特定の関係を持つ可能性があり、モデル予測の説明可能性を研究するのに大いに役立つ。
本稿では,「塩分」と「特性」の関係について考察する。
分析結果により,テキストサンプル中の単語とその特性から,シーケンスタグの考え方に基づくサリエンシー値へのマッピングモデルseo2saliencyがさらに確立された。
さらに,テキストサンプル中の各単語,単語特性,単語サリエンシー値を含む,prsalmと呼ばれる新しいデータセットを構築した。
本研究は, 異なる特性の単語の塩分を解析するために, 実験的評価を行った。
Seq2Saliencyモデルの有効性を検証する。
関連論文リスト
- Explaining word embeddings with perfect fidelity: Case study in research impact prediction [0.0]
単語埋め込みを訓練したロジスティック回帰に基づく分類モデルのための自己モデルRated Entities (SMER)。
SMERは,テキスト中の個々の単語の予測平均と正確に一致するので,理論上は説明モデルと完全に一致していることを示す。
論文 参考訳(メタデータ) (2024-09-24T09:28:24Z) - Are we describing the same sound? An analysis of word embedding spaces
of expressive piano performance [4.867952721052875]
表現力のあるピアノ演奏の特徴の領域における不確実性について検討する。
5つの埋め込みモデルとその類似性構造を基礎的真理に対応するために検証する。
埋め込みモデルの品質は、このタスクに対して大きなばらつきを示している。
論文 参考訳(メタデータ) (2023-12-31T12:20:03Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Visualizing the Obvious: A Concreteness-based Ensemble Model for Noun
Property Prediction [34.37730333491428]
名詞の性質は他の種類の知識よりも抽出するのが困難である。
本稿では,これらの特性を画像から抽出し,アンサンブルモデルで使用し,言語モデルから抽出した情報を補完する手法を提案する。
提案したテキストと画像の組み合わせは,強力なテキストベース言語モデルと比較して,名詞特性の予測を大幅に改善することを示す。
論文 参考訳(メタデータ) (2022-10-24T01:25:21Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - ALL Dolphins Are Intelligent and SOME Are Friendly: Probing BERT for
Nouns' Semantic Properties and their Prototypicality [4.915907527975786]
我々は、参照範囲を制限しない形容詞で表される英語の名詞を構成するためにBERT(Devlin et al.)を探索する。
本研究は,名詞間の関連性の強さと意味的特徴を捉える心理言語学的データセットに基づく。
そこで, BERTでは, 形容詞の意味を推論する上で必要な情報を活用することができた。
論文 参考訳(メタデータ) (2021-10-12T21:43:37Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Dynamic Contextualized Word Embeddings [20.81930455526026]
言語的文脈と外言語的文脈の両方の関数として単語を表す動的文脈化単語埋め込みを導入する。
事前訓練された言語モデル(PLM)に基づいて、動的文脈化された単語埋め込みは、時間と社会空間を協調的にモデル化する。
4つの英語データセットの質的および定量的分析により,潜在的な応用シナリオを強調した。
論文 参考訳(メタデータ) (2020-10-23T22:02:40Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。