論文の概要: Quasi-symbolic explanatory NLI via disentanglement: A geometrical
examination
- arxiv url: http://arxiv.org/abs/2210.06230v1
- Date: Wed, 12 Oct 2022 14:20:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 12:33:46.346185
- Title: Quasi-symbolic explanatory NLI via disentanglement: A geometrical
examination
- Title(参考訳): 絡み合いによる準シンボリック説明nli:幾何学的考察
- Authors: Yingji Zhang, Danilo S. Carvalho, Ian Pratt-Hartmann, Andr\'e Freitas
- Abstract要約: ニューラルモデルのエンコーディングを遠ざけることは、解釈可能性、セマンティックコントロール、下流タスクのパフォーマンスを理解するための基本的な側面である。
この研究は、結果として生じる潜在空間 w.r.t. ベクトル演算と意味的非絡み合いの幾何学的性質を評価するための方法論を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Disentangling the encodings of neural models is a fundamental aspect for
improving interpretability, semantic control, and understanding downstream task
performance in Natural Language Processing. The connection points between
disentanglement and downstream tasks, however, remains underexplored from a
explanatory standpoint. This work presents a methodology for assessment of
geometrical properties of the resulting latent space w.r.t. vector operations
and semantic disentanglement in quantitative and qualitative terms, based on a
VAE-based supervised framework. Empirical results indicate that the
role-contents of explanations, such as \textit{ARG0-animal}, are disentangled
in the latent space, which provides us a chance for controlling the explanation
generation by manipulating the traversal of vector over latent space.
- Abstract(参考訳): ニューラルモデルのエンコーディングの解消は、自然言語処理における解釈可能性、意味制御、下流タスクの理解を改善するための基本的な側面である。
しかし、ディエンタングルメントと下流タスクの接続点は、説明的な観点からは未検討のままである。
本研究は,vaeに基づく教師付き枠組みに基づく,ベクトル演算および量的・質的用語における意味的不等角性の幾何学的性質を評価するための方法論を提案する。
実験結果から, 説明のロール・コンテント, 例えば, 潜在空間に絡み合っていることが示され, 潜在空間上のベクトルのトラバーサルを操作することで説明生成を制御することができる。
関連論文リスト
- Learning Disentangled Semantic Spaces of Explanations via Invertible
Neural Networks [1.412592032367082]
切り離された潜在空間は、通常、より良い意味分離性と幾何学的性質を持ち、より良い解釈可能性とより制御可能なデータ生成をもたらす。
本研究では,より一般的な文意味的特徴の局所的な修正と制御を目的とした,文の絡み合いのより一般的な形態に着目した。
本稿では,トランスフォーマベース言語であるオートエンコーダ(AE)と統合されたフローベース可逆ニューラルネットワーク(INN)機構を導入し,より分離性に優れた潜在空間を実現する。
論文 参考訳(メタデータ) (2023-05-02T18:27:13Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - Emergence of the SVD as an interpretable factorization in deep learning
for inverse problems [1.5567671045891203]
ニューラルネットワークの解釈ツールとして,重み行列の特異値分解(SVD)の出現を示す。
NN重みのSVDと入力自己相関行列でデクラムブル変換を表現できることが示される。
論文 参考訳(メタデータ) (2023-01-18T23:16:53Z) - Discovering Class-Specific GAN Controls for Semantic Image Synthesis [73.91655061467988]
本稿では,事前訓練されたSISモデルの潜在空間において,空間的に不整合なクラス固有方向を求める新しい手法を提案する。
提案手法によって検出される潜在方向は,セマンティッククラスの局所的な外観を効果的に制御できることを示す。
論文 参考訳(メタデータ) (2022-12-02T21:39:26Z) - Learning Disentangled Representations for Natural Language Definitions [0.0]
テキストデータの連続的な構文的・意味的規則性は、構造的バイアスと生成的要因の両方をモデルに提供するのに有効である、と我々は主張する。
本研究では,文型,定義文の表現的・意味的に密接なカテゴリに存在する意味的構造を利用して,不整合表現を学習するための変分オートエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-09-22T14:31:55Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Topological Regularization for Dense Prediction [5.71097144710995]
我々は、トポロジ的記述を伴う密集予測タスクに使用できる永続的ホモロジーに基づくトポロジ的正規化の形式を開発する。
内部アクティベーションのトポロジカルな正規化は、いくつかの問題やアーキテクチャにおける収束とテストベンチマークの改善につながることを実証する。
論文 参考訳(メタデータ) (2021-11-22T04:44:45Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。