論文の概要: Quasi-symbolic explanatory NLI via disentanglement: A geometrical
examination
- arxiv url: http://arxiv.org/abs/2210.06230v1
- Date: Wed, 12 Oct 2022 14:20:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 12:33:46.346185
- Title: Quasi-symbolic explanatory NLI via disentanglement: A geometrical
examination
- Title(参考訳): 絡み合いによる準シンボリック説明nli:幾何学的考察
- Authors: Yingji Zhang, Danilo S. Carvalho, Ian Pratt-Hartmann, Andr\'e Freitas
- Abstract要約: ニューラルモデルのエンコーディングを遠ざけることは、解釈可能性、セマンティックコントロール、下流タスクのパフォーマンスを理解するための基本的な側面である。
この研究は、結果として生じる潜在空間 w.r.t. ベクトル演算と意味的非絡み合いの幾何学的性質を評価するための方法論を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Disentangling the encodings of neural models is a fundamental aspect for
improving interpretability, semantic control, and understanding downstream task
performance in Natural Language Processing. The connection points between
disentanglement and downstream tasks, however, remains underexplored from a
explanatory standpoint. This work presents a methodology for assessment of
geometrical properties of the resulting latent space w.r.t. vector operations
and semantic disentanglement in quantitative and qualitative terms, based on a
VAE-based supervised framework. Empirical results indicate that the
role-contents of explanations, such as \textit{ARG0-animal}, are disentangled
in the latent space, which provides us a chance for controlling the explanation
generation by manipulating the traversal of vector over latent space.
- Abstract(参考訳): ニューラルモデルのエンコーディングの解消は、自然言語処理における解釈可能性、意味制御、下流タスクの理解を改善するための基本的な側面である。
しかし、ディエンタングルメントと下流タスクの接続点は、説明的な観点からは未検討のままである。
本研究は,vaeに基づく教師付き枠組みに基づく,ベクトル演算および量的・質的用語における意味的不等角性の幾何学的性質を評価するための方法論を提案する。
実験結果から, 説明のロール・コンテント, 例えば, 潜在空間に絡み合っていることが示され, 潜在空間上のベクトルのトラバーサルを操作することで説明生成を制御することができる。
関連論文リスト
- Unveiling Transformer Perception by Exploring Input Manifolds [41.364418162255184]
本稿では,Transformerモデルの入力空間における等価クラス探索法を提案する。
提案手法は、トランスフォーマーアーキテクチャの内部層を入力多様体の逐次変形として記述する音響数学的理論に基づいている。
論文 参考訳(メタデータ) (2024-10-08T13:20:31Z) - Transformers Can Represent $n$-gram Language Models [56.06361029539347]
本稿では,言語モデルの単純かつ歴史的なクラスであるトランスフォーマーLMと$n$-gram LMの関係に注目した。
ハードまたはスパースアテンション機構を用いたトランスフォーマーLMは,任意の$n$-gram LMを正確に表現できることを示す。
論文 参考訳(メタデータ) (2024-04-23T12:51:37Z) - Principled Paraphrase Generation with Parallel Corpora [52.78059089341062]
ラウンドトリップ機械翻訳によって引き起こされる暗黙の類似性関数を形式化する。
一つのあいまいな翻訳を共有する非パラフレーズ対に感受性があることが示される。
この問題を緩和する別の類似度指標を設計する。
論文 参考訳(メタデータ) (2022-05-24T17:22:42Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Self-Interpretable Model with TransformationEquivariant Interpretation [11.561544418482585]
変換同変解釈を用いた自己解釈モデルSITEを提案する。
我々は幾何学変換の解釈の堅牢性と自己整合性に焦点を当てる。
論文 参考訳(メタデータ) (2021-11-09T03:21:25Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Putting a Spin on Language: A Quantum Interpretation of Unary
Connectives for Linguistic Applications [0.0]
ランベック・カルキュラスは構造規則の制御を許すために一様法則に依存している。
FVect と線型写像のコンパクト閉圏におけるランベック計算の合成解釈の提案がなされている。
我々の目標は、モダリティをベクトル解釈の第一級市民にすることである。
論文 参考訳(メタデータ) (2020-04-08T17:25:11Z) - Syntax-driven Iterative Expansion Language Models for Controllable Text
Generation [2.578242050187029]
本稿では,ニューラルテキスト生成に構文的帰納バイアスを導入するための新しいパラダイムを提案する。
実験の結果,このパラダイムはテキスト生成に有効であり,LSTMとトランスフォーマーの質と同等の多様性を持つことがわかった。
論文 参考訳(メタデータ) (2020-04-05T14:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。