論文の概要: Slice-Aware Neural Ranking
- arxiv url: http://arxiv.org/abs/2010.03343v1
- Date: Wed, 7 Oct 2020 11:40:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 23:47:09.533407
- Title: Slice-Aware Neural Ranking
- Title(参考訳): スライスアウェアニューラルランキング
- Authors: Gustavo Penha and Claudia Hauff
- Abstract要約: 我々は、(i)ニューラルネットワークのランク付けが効果的でない難易度のカテゴリを特定し、(ii)ニューラルネットワークのランク付けを改善するという課題に焦点をあてる。
どちらの課題にも対処するために、スライスベースの学習を活用して、データのスライス(サブセット)に対するニューラルモデルの有効性を改善することが目標です。
スライスに基づく学習は,スライスを意識しないニューラルネットワークよりも平均2%効率が向上することを示す。
- 参考スコア(独自算出の注目度): 11.726528038065764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding when and why neural ranking models fail for an IR task via
error analysis is an important part of the research cycle. Here we focus on the
challenges of (i) identifying categories of difficult instances (a pair of
question and response candidates) for which a neural ranker is ineffective and
(ii) improving neural ranking for such instances. To address both challenges we
resort to slice-based learning for which the goal is to improve effectiveness
of neural models for slices (subsets) of data. We address challenge (i) by
proposing different slicing functions (SFs) that select slices of the
dataset---based on prior work we heuristically capture different failures of
neural rankers. Then, for challenge (ii) we adapt a neural ranking model to
learn slice-aware representations, i.e. the adapted model learns to represent
the question and responses differently based on the model's prediction of which
slices they belong to. Our experimental results (the source code and data are
available at https://github.com/Guzpenha/slice_based_learning) across three
different ranking tasks and four corpora show that slice-based learning
improves the effectiveness by an average of 2% over a neural ranker that is not
slice-aware.
- Abstract(参考訳): ニューラルネットワークのランキングモデルがいつ、なぜエラー分析によってIRタスクにフェールするのかを理解することは、研究サイクルの重要な部分である。
ここでは課題に注目します
(i)神経ランカが効果的でない困難な例(質問と回答の候補のペア)のカテゴリを特定すること。
(ii)このような場合の神経格付けの改善。
どちらの課題にも対処するために、スライスベースの学習を活用して、データのスライス(サブセット)に対するニューラルモデルの有効性を改善することが目標です。
課題に取り組みます
(i) 従来の作業に基づいてデータセットのスライスを選択する異なるスライス機能(SF)を提案することにより、ニューラルネットワークローダの異なる障害をヒューリスティックにキャプチャする。
そして挑戦のために
2) ニューラルネットワークのランク付けモデルを用いてスライス認識表現を学習する。すなわち,モデルがどのスライスに属するかの予測に基づいて,適応モデルが質問や応答を異なる方法で表現することを学ぶ。
我々の実験結果(ソースコードとデータはhttps://github.com/Guzpenha/slice_based_learningで利用可能)は、3つの異なるランキングタスクと4つのコーパスで行われ、スライスベースの学習はスライスを意識しないニューラルネットワークローダよりも平均2%効率が向上することを示した。
関連論文リスト
- Learning Active Subspaces and Discovering Important Features with Gaussian Radial Basis Functions Neural Networks [0.0]
モデルの訓練が完了すると抽出できる精度行列のスペクトルに含まれる貴重な情報を示す。
回帰,分類,特徴選択タスクの数値実験を行った。
その結果,提案モデルが競合モデルに比べて魅力的な予測性能が得られるだけでなく,予測性能も向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-11T09:54:30Z) - Supervised Feature Selection with Neuron Evolution in Sparse Neural
Networks [17.12834153477201]
スパースニューラルネットワークを用いた資源効率の高い新しい特徴選択法を提案する。
スクラッチからトレーニングされたスパースニューラルネットワークの入力層から、不定形的特徴を徐々に抜き取ることにより、NeuroFSは、機能の情報的サブセットを効率的に導き出す。
NeuroFSは、最先端の教師付き特徴選択モデルの中で最上位のスコアを達成している。
論文 参考訳(メタデータ) (2023-03-10T17:09:55Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - Neural Routing in Meta Learning [9.070747377130472]
入力タスクに条件付けされたモデルの部分のみを選択的に使用することにより,現在のメタ学習アルゴリズムのモデル性能を向上させることを目指している。
本稿では、バッチ正規化層におけるスケーリング係数を活用することにより、深層畳み込みニューラルネットワーク(CNN)におけるタスク依存の動的ニューロン選択を研究するアプローチについて述べる。
提案手法であるニューラルルーティング・イン・メタラーニング(NRML)は,数ショットの分類タスクにおいて,既知のメタラーニングベースラインの1つである。
論文 参考訳(メタデータ) (2022-10-14T16:31:24Z) - Winning solutions and post-challenge analyses of the ChaLearn AutoDL
challenge 2019 [112.36155380260655]
本稿では,ChaLearnのAutoDLチャレンジシリーズの結果と今後の課題について述べる。
その結果,一般的なニューラルネットワーク探索(NAS)は実用的ではなかったものの,DL手法が支配的であったことが示唆された。
メタラーナー"、"データインジェクタ"、"モデルセレクタ"、"モデル/ラーナー"、"評価器"を特徴とする、ハイレベルなモジュール化組織が登場した。
論文 参考訳(メタデータ) (2022-01-11T06:21:18Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Efficacy of Bayesian Neural Networks in Active Learning [11.609770399591516]
ベイズニューラルネットワークは、アンサンブルに基づく不確実性を捕捉する技術よりも効率的であることを示す。
また,近年,モンテカルロのドロップアウトよりも効果的であることが判明したアンサンブル技法の重要な欠点も明らかにした。
論文 参考訳(メタデータ) (2021-04-02T06:02:11Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - Towards Understanding Hierarchical Learning: Benefits of Neural
Representations [160.33479656108926]
この研究で、中間的神経表現がニューラルネットワークにさらなる柔軟性をもたらすことを実証する。
提案手法は, 生の入力と比較して, サンプルの複雑度を向上できることを示す。
この結果から, 深度が深層学習においてなぜ重要かという新たな視点が得られた。
論文 参考訳(メタデータ) (2020-06-24T02:44:54Z) - Emotion Recognition on large video dataset based on Convolutional
Feature Extractor and Recurrent Neural Network [0.2855485723554975]
我々のモデルは、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせて、ビデオデータ上での次元的感情を予測する。
実験は、最新のAff-Wild2データベースを含む、公開データセットで実施されている。
論文 参考訳(メタデータ) (2020-06-19T14:54:13Z) - Towards Efficient Processing and Learning with Spikes: New Approaches
for Multi-Spike Learning [59.249322621035056]
各種タスクにおける他のベースラインよりも優れた性能を示すための2つの新しいマルチスパイク学習ルールを提案する。
特徴検出タスクでは、教師なしSTDPの能力と、その制限を提示する能力を再検討する。
提案した学習ルールは,特定の制約を適用せずに,幅広い条件で確実にタスクを解くことができる。
論文 参考訳(メタデータ) (2020-05-02T06:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。