論文の概要: Nearest Neighbor Zero-Shot Inference
- arxiv url: http://arxiv.org/abs/2205.13792v1
- Date: Fri, 27 May 2022 07:00:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 03:35:55.187774
- Title: Nearest Neighbor Zero-Shot Inference
- Title(参考訳): 最寄りのゼロショット推論
- Authors: Weijia Shi, Julian Michael, Suchin Gururangan, Luke Zettlemoyer
- Abstract要約: kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
- 参考スコア(独自算出の注目度): 68.56747574377215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce kNN-Prompt, a simple and effective technique to use k-nearest
neighbor (kNN) retrieval augmentation (Khandelwal et al., 2021) for zero-shot
inference with language models (LMs). Key to our approach is the introduction
of fuzzy verbalizers which leverage the sparse kNN distribution for downstream
tasks by automatically associating each classification label with a set of
natural language tokens. Across eleven diverse end-tasks (spanning text
classification, fact retrieval and question answering), using kNN-Prompt with
GPT-2 Large yields significant performance boosts over zero-shot baselines (14%
absolute improvement over the base LM on average). Extensive experiments show
that kNN-Prompt is effective for domain adaptation with no further training,
and that the benefits of retrieval increase with the size of the model used for
kNN retrieval. Overall, we show that augmenting a language model with retrieval
can bring significant gains for zero-shot inference, with the possibility that
larger retrieval models may yield even greater benefits.
- Abstract(参考訳): 言語モデル(LM)を用いたゼロショット推論にk-nearest neighbor(kNN)検索拡張(Khandelwal et al., 2021)を用いた簡易かつ効果的な手法であるkNN-Promptを導入する。
我々のアプローチの鍵は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクにスパースkn分布を利用するファジィ動詞化器の導入である。
11種類のエンドタスク(スパンニングテキスト分類、事実検索、質問応答)で、GPT-2でkNN-Promptを使用すると、ゼロショットベースラインよりも大きなパフォーマンスが向上する(平均すると平均して14%の改善)。
大規模な実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
全体として,検索による言語モデルの拡張はゼロショット推論に大きな利益をもたらす可能性を示し,より大きな検索モデルがさらに大きな利益をもたらす可能性がある。
関連論文リスト
- Towards Faster k-Nearest-Neighbor Machine Translation [56.66038663128903]
k-nearest-neighbor 機械翻訳アプローチは、トークンをデコードする際に、データストア全体の重い検索オーバーヘッドに悩まされる。
ニューラルネットワークの翻訳モデルとkNNが生成する確率によってトークンが共同で翻訳されるべきかどうかを予測するための,単純で効果的な多層パーセプトロン(MLP)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T16:41:29Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Revisiting k-NN for Fine-tuning Pre-trained Language Models [25.105882538429743]
我々は PLM ベースの分類器を強化するために k-Nearest-Neighbor (kNN) 分類器を再検討する。
我々のアプローチの核心は、予測結果を簡単な例と難しい例の指標として扱うkNN校正トレーニングの実装である。
我々は、微調整、急速調整、ゼロショット、少数ショット、完全教師付き設定に関する広範な実験を行う。
論文 参考訳(メタデータ) (2023-04-18T15:28:47Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。