論文の概要: Interactive Re-Fitting as a Technique for Improving Word Embeddings
- arxiv url: http://arxiv.org/abs/2010.00121v1
- Date: Wed, 30 Sep 2020 21:54:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 22:33:43.937380
- Title: Interactive Re-Fitting as a Technique for Improving Word Embeddings
- Title(参考訳): 単語埋め込み改善手法としてのインタラクティブリフィッティング
- Authors: James Powell, Kari Sentz
- Abstract要約: 我々は,単語の集合を互いに近づけることで,単語の埋め込み空間の一部を調整できるようにする。
提案手法では,単語埋め込みにおける潜在的なバイアスをユーザが操作する際,選択的な後処理をトリガーし,評価することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Word embeddings are a fixed, distributional representation of the context of
words in a corpus learned from word co-occurrences. While word embeddings have
proven to have many practical uses in natural language processing tasks, they
reflect the attributes of the corpus upon which they are trained. Recent work
has demonstrated that post-processing of word embeddings to apply information
found in lexical dictionaries can improve their quality. We build on this
post-processing technique by making it interactive. Our approach makes it
possible for humans to adjust portions of a word embedding space by moving sets
of words closer to one another. One motivating use case for this capability is
to enable users to identify and reduce the presence of bias in word embeddings.
Our approach allows users to trigger selective post-processing as they interact
with and assess potential bias in word embeddings.
- Abstract(参考訳): 単語埋め込みは、単語共起から学習したコーパス内の単語の文脈の固定された分布表現である。
単語の埋め込みは自然言語処理タスクに多くの実用的な用途があることが証明されているが、それらは訓練されたコーパスの属性を反映している。
近年の研究では、語彙辞書にある情報を適用するための単語埋め込みの処理が品質を向上させることが示されている。
インタラクティブにすることで、この後処理技術を構築します。
提案手法により,単語の集合を互いに近づけることで,単語の埋め込み空間の一部を調整することができる。
この機能のモチベーションのあるユースケースは、ユーザーが単語埋め込みにおけるバイアスの存在を識別し、軽減できるようにすることである。
提案手法では,単語埋め込みにおける潜在的なバイアスをユーザが操作する際に選択的な後処理をトリガーし,評価することができる。
関連論文リスト
- Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - SensePOLAR: Word sense aware interpretability for pre-trained contextual
word embeddings [4.479834103607384]
単語埋め込みに解釈可能性を加えることは、テキスト表現における活発な研究の領域である。
本稿では,従来のPOLARフレームワークを拡張したSensePOLARを提案する。
論文 参考訳(メタデータ) (2023-01-11T20:25:53Z) - Human-in-the-Loop Refinement of Word Embeddings [0.0]
単語埋め込み後処理の適応を組み込んだシステムを提案する。
我々のアプローチは、人間が対話的に単語の埋め込みによって潜在的な品質問題を特定し、対処することを可能にする。
また、単語の埋め込み、単語の埋め込みに対する改善が機械学習パイプラインに与える影響について、より深い洞察を与えることができる。
論文 参考訳(メタデータ) (2021-10-06T16:10:32Z) - LexSubCon: Integrating Knowledge from Lexical Resources into Contextual
Embeddings for Lexical Substitution [76.615287796753]
本稿では,コンテキスト埋め込みモデルに基づくエンドツーエンドの語彙置換フレームワークであるLexSubConを紹介する。
これは文脈情報と構造化語彙資源からの知識を組み合わせることで達成される。
我々の実験によると、LexSubConはLS07とCoInCoベンチマークデータセットで従来の最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-07-11T21:25:56Z) - Fake it Till You Make it: Self-Supervised Semantic Shifts for
Monolingual Word Embedding Tasks [58.87961226278285]
語彙意味変化をモデル化するための自己教師付きアプローチを提案する。
本手法は,任意のアライメント法を用いて意味変化の検出に利用できることを示す。
3つの異なるデータセットに対する実験結果を用いて,本手法の有用性について述べる。
論文 参考訳(メタデータ) (2021-01-30T18:59:43Z) - Learning Efficient Task-Specific Meta-Embeddings with Word Prisms [17.288765083303243]
本稿では,単語プリズム(Word prisms):手作業に応じてソース埋め込みを組み合わせることを学ぶ,シンプルで効率的なメタ埋め込み手法を提案する。
単語プリズムを6つの外部評価における他のメタ埋め込み法と比較して評価し、単語プリズムが全てのタスクに改善をもたらすことを観察する。
論文 参考訳(メタデータ) (2020-11-05T16:08:50Z) - Comparative Analysis of Word Embeddings for Capturing Word Similarities [0.0]
分散言語表現は、様々な自然言語処理タスクにおいて、言語表現において最も広く使われている技術となっている。
ディープラーニング技術に基づく自然言語処理モデルのほとんどは、単語埋め込みと呼ばれる、すでに訓練済みの分散単語表現を使用している。
適切な単語の埋め込みを選択することは 複雑な作業です なぜなら、投影された埋め込み空間は 人間にとって直感的ではないからです
論文 参考訳(メタデータ) (2020-05-08T01:16:03Z) - Techniques for Vocabulary Expansion in Hybrid Speech Recognition Systems [54.49880724137688]
語彙外単語(OOV)の問題は、音声認識システムにおいて典型的である。
OOVをカバーするための一般的なアプローチの1つは、単語ではなくサブワード単位を使用することである。
本稿では,グラフ構築法と探索法の両方のレベルで,この解の既存手法について検討する。
論文 参考訳(メタデータ) (2020-03-19T21:24:45Z) - Word Sense Disambiguation for 158 Languages using Word Embeddings Only [80.79437083582643]
文脈における単語感覚の曖昧さは人間にとって容易であるが、自動的アプローチでは大きな課題である。
本稿では,学習前の標準単語埋め込みモデルを入力として,完全に学習した単語認識のインベントリを誘導する手法を提案する。
この手法を用いて、158の言語に対して、事前訓練されたfastText単語の埋め込みに基づいて、センスインベントリのコレクションを誘導する。
論文 参考訳(メタデータ) (2020-03-14T14:50:04Z) - On the Importance of Word Order Information in Cross-lingual Sequence
Labeling [80.65425412067464]
ソース言語の単語順に適合する言語間モデルでは、ターゲット言語を処理できない可能性がある。
本研究では,ソース言語の単語順序に敏感なモデルを作成することで,対象言語の適応性能が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2020-01-30T03:35:44Z) - A Common Semantic Space for Monolingual and Cross-Lingual
Meta-Embeddings [10.871587311621974]
本稿では,モノリンガルおよびクロスリンガルなメタ埋め込みを作成するための新しい手法を提案する。
既存のワードベクトルは線形変換と平均化を用いて共通の意味空間に投影される。
結果として得られる言語間メタ埋め込みは、優れた言語間移動学習能力を示す。
論文 参考訳(メタデータ) (2020-01-17T15:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。