論文の概要: Locality Preserving Loss: Neighbors that Live together, Align together
- arxiv url: http://arxiv.org/abs/2004.03734v2
- Date: Fri, 12 Mar 2021 04:56:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:36:21.839083
- Title: Locality Preserving Loss: Neighbors that Live together, Align together
- Title(参考訳): 地域保存損失:隣人が一緒に暮らし、一緒に暮らしている
- Authors: Ashwinkumar Ganesan, Francis Ferraro, Tim Oates
- Abstract要約: 局所性保存損失(LPL)は、非相関表現を分離しながら、ベクトル空間の埋め込み間のアライメントを改善する。
入力ベクトル空間間のLPLベースのアライメントが正規化器として機能し,ベースラインよりも精度が高く一貫した精度が得られることを示す。
- 参考スコア(独自算出の注目度): 17.38333662301994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a locality preserving loss (LPL) that improves the alignment
between vector space embeddings while separating uncorrelated representations.
Given two pretrained embedding manifolds, LPL optimizes a model to project an
embedding and maintain its local neighborhood while aligning one manifold to
another. This reduces the overall size of the dataset required to align the two
in tasks such as cross-lingual word alignment. We show that the LPL-based
alignment between input vector spaces acts as a regularizer, leading to better
and consistent accuracy than the baseline, especially when the size of the
training set is small. We demonstrate the effectiveness of LPL optimized
alignment on semantic text similarity (STS), natural language inference (SNLI),
multi-genre language inference (MNLI) and cross-lingual word alignment(CLA)
showing consistent improvements, finding up to 16% improvement over our
baseline in lower resource settings.
- Abstract(参考訳): 非相関表現を分離しながらベクトル空間埋め込み間のアライメントを改善する局所性保存損失(lpl)を提案する。
2つの事前訓練された埋め込み多様体が与えられたとき、LPLはモデルを最適化して埋め込みを投影し、ある多様体を別の多様体に整列させながらその局所近傍を維持する。
これにより、言語間単語アライメントなどのタスクで2つを整列させるために必要なデータセット全体のサイズが削減される。
入力ベクトル空間間のlplに基づくアライメントがレギュラライザとして作用し、特にトレーニングセットのサイズが小さい場合には、ベースラインよりも精度が良く一貫性があることを示す。
我々は,LPL最適化による意味的テキスト類似性(STS),自然言語推論(SNLI),多言語推論(MNLI),言語間単語アライメント(CLA)に対するアライメントの有効性を示した。
関連論文リスト
- Bridging the Language Gaps in Large Language Models with Inference-Time Cross-Lingual Intervention [71.12193680015622]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示している。
LLMは異なる言語間で大きな性能差を示す。
Inference-Time Cross-Lingual Intervention (INCLINE) を提案する。
論文 参考訳(メタデータ) (2024-10-16T11:23:03Z) - Unified Lexical Representation for Interpretable Visual-Language Alignment [52.059812317944434]
複雑な設計をせずに両方のモダリティを統一した語彙表現を学習するためのフレームワークであるLexVLAを紹介する。
我々はDINOv2をローカル言語の特徴の視覚モデルとして使用し、生成言語モデルであるLlamaをテキスト内語彙予測能力の活用に利用した。
これら2つの事前学習されたユニモーダルモデルが、控えめなマルチモーダルデータセットを微調整することで、適切に整列できることを実証する。
論文 参考訳(メタデータ) (2024-07-25T07:35:27Z) - Linear Alignment: A Closed-form Solution for Aligning Human Preferences without Tuning and Feedback [70.32795295142648]
リニアアライメントは、言語モデルと人間の好みを1つの推論ステップで整列する新しいアルゴリズムである。
一般的な選好データセットとパーソナライズされた選好データセットの実験により、線形アライメントはLLMアライメントの性能と効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-01-21T10:46:23Z) - WSPAlign: Word Alignment Pre-training via Large-Scale Weakly Supervised
Span Prediction [31.96433679860807]
既存の単語アライメント手法の多くは、手動アライメントデータセットやパラレルコーパスに依存している。
我々は正しい、完全に整合した、平行した文の要求を緩和する。
次に、このような大規模弱教師付きデータセットを用いて、スパン予測による単語アライメント事前学習を行う。
論文 参考訳(メタデータ) (2023-06-09T03:11:42Z) - Improving Bilingual Lexicon Induction with Cross-Encoder Reranking [31.142790337451366]
BLICEr (BLI with Cross-Encoder Re rank) と呼ばれる新しい半教師付きポストホックリグレード法を提案する。
鍵となる考え方は、mPLMから言語間の語彙的知識を抽出し、元のCLWEと組み合わせることである。
BLICErは、多様な言語にまたがる2つの標準BLIベンチマークで、新しい結果を確立している。
論文 参考訳(メタデータ) (2022-10-30T21:26:07Z) - Learning Where to Learn in Cross-View Self-Supervised Learning [54.14989750044489]
自己教師付き学習(SSL)は大きな進歩を遂げ、教師付き学習との大きなギャップを狭めた。
現在の方法では、埋め込みにピクセルの統一的なアグリゲーションを採用する。
本稿では,特徴の空間情報を適応的に集約する学習方法であるLearning Where to Learn(LEWEL)を提案する。
論文 参考訳(メタデータ) (2022-03-28T17:02:42Z) - Isomorphic Cross-lingual Embeddings for Low-Resource Languages [1.5076964620370268]
CLWE(Cross-Lingual Word Embeddings)は、高リソース設定から学習した言語情報を低リソースに転送するための重要なコンポーネントである。
我々は、関連の高い高リソース言語を共同で活用することで、低リソース対に対して、アイソメトリを仮定せずにCLWEを学習するフレームワークを導入する。
両言語レキシコン誘導(BLI)と固有値類似度(Eigenvalue similarity)によって測定された同型性の品質と程度において,現在の手法よりも一貫した利得を示す。
論文 参考訳(メタデータ) (2022-03-28T10:39:07Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Using Optimal Transport as Alignment Objective for fine-tuning
Multilingual Contextualized Embeddings [7.026476782041066]
我々は,マルチリンガルな文脈化表現を改善するために,微調整時のアライメント目的として最適輸送(OT)を提案する。
このアプローチでは、微調整の前に単語アライメントペアを必要とせず、教師なしの方法で文脈内の単語アライメントを学習する。
論文 参考訳(メタデータ) (2021-10-06T16:13:45Z) - HSVA: Hierarchical Semantic-Visual Adaptation for Zero-Shot Learning [74.76431541169342]
ゼロショット学習(ZSL)は、目に見えないクラス認識の問題に取り組み、目に見えないクラスから目に見えないクラスに意味的な知識を移す。
本稿では,意味領域と視覚領域を協調させる新しい階層型意味視覚適応(HSVA)フレームワークを提案する。
4つのベンチマークデータセットの実験では、HSVAは従来のZSLと一般的なZSLの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-30T14:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。