論文の概要: INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation
- arxiv url: http://arxiv.org/abs/2306.06381v1
- Date: Sat, 10 Jun 2023 08:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 19:13:18.788599
- Title: INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation
- Title(参考訳): 近距離機械翻訳におけるkNN知識の注入
- Authors: Wenhao Zhu, Jingjing Xu, Shujian Huang, Lingpeng Kong, Jiajun Chen
- Abstract要約: kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
- 参考スコア(独自算出の注目度): 57.952478914459164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural machine translation has achieved promising results on many translation
tasks. However, previous studies have shown that neural models induce a
non-smooth representation space, which harms its generalization results.
Recently, kNN-MT has provided an effective paradigm to smooth the prediction
based on neighbor representations during inference. Despite promising results,
kNN-MT usually requires large inference overhead. We propose an effective
training framework INK to directly smooth the representation space via
adjusting representations of kNN neighbors with a small number of new
parameters. The new parameters are then used to refresh the whole
representation datastore to get new kNN knowledge asynchronously. This loop
keeps running until convergence. Experiments on four benchmark datasets show
that \method achieves average gains of 1.99 COMET and 1.0 BLEU, outperforming
the state-of-the-art kNN-MT system with 0.02x memory space and 1.9x inference
speedup.
- Abstract(参考訳): ニューラルマシン翻訳は多くの翻訳タスクで有望な結果を得た。
しかし、これまでの研究では、神経モデルは非スムース表現空間を誘導し、一般化の結果を損なうことが示されている。
近年、knn-mtは推論中の隣接表現に基づく予測を円滑にするための効果的なパラダイムを提供している。
有望な結果にもかかわらず、kNN-MTは通常、大きな推論オーバーヘッドを必要とする。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を直接滑らかにするための効果的なトレーニングフレームワークINKを提案する。
新しいパラメータは、新しいkNN知識を非同期に取得するために、表現データストア全体を更新するために使用される。
このループは収束するまで継続する。
4つのベンチマークデータセットの実験により、Shamethodは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリスペースと1.9倍の推論速度を持つ最先端のkNN-MTシステムを上回った。
関連論文リスト
- Efficient k-Nearest-Neighbor Machine Translation with Dynamic Retrieval [49.825549809652436]
$k$NN-MTはドメイン固有の翻訳知識を保持するために外部データストアを構築する。
適応検索(k$NN-MT-AR)は、$lambda$を動的に推定し、$lambda$が固定しきい値以下であれば$k$NN検索をスキップする。
本稿では,バニラ$k$NN-MTを大幅に拡張した動的検索(k$NN-MT-DR)を提案する。
論文 参考訳(メタデータ) (2024-06-10T07:36:55Z) - SEENN: Towards Temporal Spiking Early-Exit Neural Networks [26.405775809170308]
スパイキングニューラルネットワーク(SNN)は、最近、従来のニューラルネットワーク(ANN)の生物学的にもっともらしい代替品として人気が高まっている。
本研究では,SNNにおける時間経過の微調整について検討する。
時間ステップ数を動的に調整することにより、SEENNは推論中の平均時間ステップ数を著しく削減する。
論文 参考訳(メタデータ) (2023-04-02T15:57:09Z) - Reducing ANN-SNN Conversion Error through Residual Membrane Potential [19.85338979292052]
スパイキングニューラルネットワーク(SNN)は、低消費電力のユニークな特性とニューロモルフィックチップ上の高速コンピューティングにより、広く学術的な注目を集めている。
本稿では,不均一な誤差を詳細に解析し,それを4つのカテゴリに分割する。
本研究では,残膜電位に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2023-02-04T04:44:31Z) - Towards Robust k-Nearest-Neighbor Machine Translation [72.9252395037097]
近年,k-Nearest-Neighbor Machine Translation (kNN-MT)がNMTの重要な研究方向となっている。
その主なアイデアは、NMTモデルを更新することなく翻訳を変更するために、追加のデータストアから有用なキーと値のペアを取得することである。
取り出したノイズペアはモデル性能を劇的に低下させる。
ノイズの影響を軽減するために,頑健なトレーニングを施した信頼性向上kNN-MTモデルを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:43:39Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - DNNR: Differential Nearest Neighbors Regression [8.667550264279166]
K-nearest neighbors(KNN)は、機械学習において最も早く、最も確立されたアルゴリズムの1つである。
回帰タスクでは、KNNは、多くの課題を引き起こす地区内のターゲットを平均化する。
両問題に同時に対処するDNNR(differial Nearest Neighbors Regression)を提案する。
論文 参考訳(メタデータ) (2022-05-17T15:22:53Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。