論文の概要: AttViz: Online exploration of self-attention for transparent neural
language modeling
- arxiv url: http://arxiv.org/abs/2005.05716v1
- Date: Tue, 12 May 2020 12:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 18:24:10.418248
- Title: AttViz: Online exploration of self-attention for transparent neural
language modeling
- Title(参考訳): AttViz: 透明なニューラルネットワークモデリングのための自己注意のオンライン探索
- Authors: Bla\v{z} \v{S}krlj, Nika Er\v{z}en, Shane Sheehan, Saturnino Luz,
Marko Robnik-\v{S}ikonja, Senja Pollak
- Abstract要約: 本研究では,AttVizを提案する。AttVizは,個々のテキストトークンに関連付けられた自己注意値の探索を行うオンラインツールキットである。
既存のディープラーニングパイプラインが、AttVizに適したアウトプットを生成し、最小限の労力で、アテンションヘッドとアグリゲーションの新たな視覚化を提供する方法を示します。
- 参考スコア(独自算出の注目度): 7.574392147428978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural language models are becoming the prevailing methodology for the tasks
of query answering, text classification, disambiguation, completion and
translation. Commonly comprised of hundreds of millions of parameters, these
neural network models offer state-of-the-art performance at the cost of
interpretability; humans are no longer capable of tracing and understanding how
decisions are being made. The attention mechanism, introduced initially for the
task of translation, has been successfully adopted for other language-related
tasks. We propose AttViz, an online toolkit for exploration of
self-attention---real values associated with individual text tokens. We show
how existing deep learning pipelines can produce outputs suitable for AttViz,
offering novel visualizations of the attention heads and their aggregations
with minimal effort, online. We show on examples of news segments how the
proposed system can be used to inspect and potentially better understand what a
model has learned (or emphasized).
- Abstract(参考訳): クエリ応答やテキスト分類,曖昧さ回避,補完,翻訳といったタスクでは,ニューラルネットワークモデルが一般的な方法論になりつつある。
一般的に数億のパラメータで構成されているこれらのニューラルネットワークモデルは、解釈可能性の犠牲で最先端のパフォーマンスを提供する。
翻訳作業のために最初に導入されたアテンションメカニズムは、他の言語関連タスクにうまく採用されている。
我々は,個々のテキストトークンに関連づけられた実数値を自己参照探索するためのオンラインツールキットであるattvizを提案する。
既存のディープラーニングパイプラインがattvizに適したアウトプットを生成する方法を示し、オンライン上で、注意ヘッドとその集約の新たな可視化を提供する。
提案するシステムがモデルが学んだ(あるいは強調した)ことの検査や理解にどのように役立つのか,ニュースセグメントの例を示す。
関連論文リスト
- TExplain: Explaining Learned Visual Features via Pre-trained (Frozen) Language Models [14.019349267520541]
本稿では,事前学習した画像分類器の学習特徴を解釈するために,言語モデルの能力を活用する新しい手法を提案する。
提案手法は,与えられた画像の分類器によって学習された特徴を説明するために,膨大な数の文を生成する。
提案手法は,視覚表現に対応する頻繁な単語を初めて利用し,意思決定プロセスに関する洞察を提供する。
論文 参考訳(メタデータ) (2023-09-01T20:59:46Z) - Towards Vision-Language Mechanistic Interpretability: A Causal Tracing
Tool for BLIP [27.51318030253248]
我々は、画像条件付きテキスト生成の基礎となる神経機構の研究を可能にするために、一方向因果追跡ツールをBLIPに適用した。
我々はBLIP因果追跡ツールをオープンソースとしてリリースし、視覚言語による機械的解釈のさらなる実験を可能にする。
論文 参考訳(メタデータ) (2023-08-27T18:46:47Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - ABINet++: Autonomous, Bidirectional and Iterative Language Modeling for
Scene Text Spotting [121.11880210592497]
言語モデルの限られた能力は,1)暗黙的な言語モデリング,2)一方向の特徴表現,3)雑音入力を伴う言語モデルから生じる。
シーンテキストスポッティングのための自律的で双方向かつ反復的なABINet++を提案する。
論文 参考訳(メタデータ) (2022-11-19T03:50:33Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Neuro-Symbolic Representations for Video Captioning: A Case for
Leveraging Inductive Biases for Vision and Language [148.0843278195794]
ビデオキャプションのためのマルチモーダルなニューラルシンボリック表現を学習するための新しいモデルアーキテクチャを提案する。
本手法では,ビデオ間の関係を学習する辞書学習手法と,そのペアによるテキスト記述を用いる。
論文 参考訳(メタデータ) (2020-11-18T20:21:19Z) - Vokenization: Improving Language Understanding with Contextualized,
Visual-Grounded Supervision [110.66085917826648]
我々は,言語トークンを関連画像に文脈的にマッピングすることで,言語のみのデータに対するマルチモーダルアライメントを補間する手法を開発した。
語彙化」は比較的小さな画像キャプションデータセットに基づいて訓練され、それを大規模言語コーパスのための語彙生成に適用する。
これらの文脈的に生成された語彙を用いて学習し、視覚的に制御された言語モデルにより、複数の純粋言語タスクにおいて、自己教師による代替よりも一貫した改善が示される。
論文 参考訳(メタデータ) (2020-10-14T02:11:51Z) - From text saliency to linguistic objects: learning linguistic
interpretable markers with a multi-channels convolutional architecture [2.064612766965483]
本稿では,分類プロセスを利用したテキストから解釈可能な言語オブジェクトを抽出するために,実装されたCNNの隠れ層を検査する手法を提案する。
我々は、英語とフランス語の2つの異なる言語からのコーパスに対するアプローチの効率を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-07T10:46:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。