論文の概要: Reconstruction Probing
- arxiv url: http://arxiv.org/abs/2212.10792v1
- Date: Wed, 21 Dec 2022 06:22:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:46:54.776413
- Title: Reconstruction Probing
- Title(参考訳): 再建調査
- Authors: Najoung Kim, Jatin Khilnani, Alex Warstadt, Abed Qaddoumi
- Abstract要約: マスク付き言語モデルにおける再構成確率に基づく文脈表現の新しい解析手法を提案する。
トークンに近いトークンの文脈化は、線形および構文的距離で再構成される。
我々は、文脈化表現のより微細な分解に分析を拡張し、これらのブーストは入力層における静的および位置埋め込みに起因することが判明した。
- 参考スコア(独自算出の注目度): 7.647452554776166
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose reconstruction probing, a new analysis method for contextualized
representations based on reconstruction probabilities in masked language models
(MLMs). This method relies on comparing the reconstruction probabilities of
tokens in a given sequence when conditioned on the representation of a single
token that has been fully contextualized and when conditioned on only the
decontextualized lexical prior of the model. This comparison can be understood
as quantifying the contribution of contextualization towards reconstruction --
the difference in the reconstruction probabilities can only be attributed to
the representational change of the single token induced by contextualization.
We apply this analysis to three MLMs and find that contextualization boosts
reconstructability of tokens that are close to the token being reconstructed in
terms of linear and syntactic distance. Furthermore, we extend our analysis to
finer-grained decomposition of contextualized representations, and we find that
these boosts are largely attributable to static and positional embeddings at
the input layer.
- Abstract(参考訳): マスク付き言語モデル(MLM)における再構成確率に基づく文脈表現の新しい解析手法である再構成探索を提案する。
この方法は、完全に文脈化されている単一トークンの表現に条件付けされた場合、モデルの非文脈化語彙のみに条件付けされた場合、与えられたシーケンスにおけるトークンの再構成確率を比較することに依存する。
この比較は、再構成に対する文脈化の寄与の定量化として理解することができる - 再構成確率の違いは、文脈化によって引き起こされる単一トークンの表現的変化にのみ寄与する。
この分析を3つのMLMに適用し、文脈化は、線形および構文的距離で再構成されるトークンに近いトークンの再構成可能性を高めることを発見した。
さらに,この解析を文脈化表現のよりきめ細かい分解に拡張し,これらは入力層における静的および位置埋め込みに大きく寄与することがわかった。
関連論文リスト
- Lexical Manifold Reconfiguration in Large Language Models: A Novel Architectural Approach for Contextual Modulation [0.0]
連続的な幾何学的変換を通じてトークン埋め込みを動的に再構成するための構造化手法を開発した。
多様体をベースとした変換機構は、語彙的位置決めを規制するために統合され、埋め込みは制御されたシフトを受けることができる。
経験的評価により, 組込み再構成は難易度低減, 語彙コヒーレンスの改善, 文レベルの連続性の向上に寄与した。
論文 参考訳(メタデータ) (2025-02-12T22:11:07Z) - Latent Lexical Projection in Large Language Models: A Novel Approach to Implicit Representation Refinement [0.0]
ラテントレキシカル射影 (LLP) は、構造化された空間からラテント空間への変換を通じて、レキシカル表現を洗練するために導入された。
LLPは既存の言語モデルアーキテクチャに最適化されたプロジェクション機構を統合する。
評価は、パープレキシティの低下とBLEUスコアの上昇を示し、予測精度と流布率の改善を示唆している。
論文 参考訳(メタデータ) (2025-02-03T23:18:53Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Representing and Computing Uncertainty in Phonological Reconstruction [5.284425534494986]
歴史的言語学では本質的にファジィな再現性にもかかわらず、多くの学者は原型の提案において不確かさを表現していない。
本稿では,言語再建における不確実性の表現を可能にする新しい枠組みを提案するとともに,言語データからファジィ再構成を計算するためのワークフローも提供する。
論文 参考訳(メタデータ) (2023-10-19T13:27:42Z) - A Mechanism for Sample-Efficient In-Context Learning for Sparse
Retrieval Tasks [29.764014766305174]
事前学習プロセスと下流タスクに対して,適切な仮定でトランスフォーマーモデルがICLを実行可能であることを示す。
本手法は, トランス機構を用いて実装可能であることを確認した。
論文 参考訳(メタデータ) (2023-05-26T15:49:43Z) - Bayesian Recurrent Units and the Forward-Backward Algorithm [91.39701446828144]
ベイズの定理を用いることで、ユニットワイド・リカレンスとフォワード・バックワードアルゴリズムに類似した後方再帰を導出する。
その結果得られたベイジアン再帰ユニットは、ディープラーニングフレームワーク内で再帰ニューラルネットワークとして統合することができる。
音声認識の実験は、最先端の繰り返しアーキテクチャの最後に派生したユニットを追加することで、訓練可能なパラメータの点で非常に低コストで性能を向上させることを示唆している。
論文 参考訳(メタデータ) (2022-07-21T14:00:52Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Entangled Residual Mappings [59.02488598557491]
残余接続の構造を一般化するために、絡み合った残余写像を導入する。
絡み合い残余写像は、アイデンティティスキップ接続を特別な絡み合い写像に置き換える。
絡み合った写像は、様々な深層モデルにまたがる特徴の反復的洗練を保ちながら、畳み込みネットワークにおける表現学習プロセスに影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-06-02T19:36:03Z) - Anti-aliasing Semantic Reconstruction for Few-Shot Semantic Segmentation [66.85202434812942]
セグメンテーションを意味的再構成問題として再検討する。
基本クラスの特徴を,新しいクラス再構築のためのクラスレベルのセマンティック空間にまたがる一連の基底ベクトルに変換する。
提案手法はアンチエイリアス・セマンティック・リストラクション (ASR) と呼ばれ, 数発の学習問題に対して, 体系的かつ解釈可能な解法を提供する。
論文 参考訳(メタデータ) (2021-06-01T02:17:36Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。