論文の概要: Hierarchical Ranking for Answer Selection
- arxiv url: http://arxiv.org/abs/2102.00677v1
- Date: Mon, 1 Feb 2021 07:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:48:36.029289
- Title: Hierarchical Ranking for Answer Selection
- Title(参考訳): 回答選択のための階層的ランキング
- Authors: Hang Gao, Mengting Hu, Renhong Cheng, Tiegang Gao
- Abstract要約: 階層的ランキング(hierarchical ranking)と呼ばれる,回答選択のための新しい戦略を提案する。
ポイントレベルのランキング、ペアレベルのランキング、リストレベルのランキングの3つのレベルを導入します。
WikiQA と TREC-QA の2つの公開データセットによる実験結果から,提案した階層的ランキングが有効であることを示す。
- 参考スコア(独自算出の注目度): 19.379777219863964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Answer selection is a task to choose the positive answers from a pool of
candidate answers for a given question. In this paper, we propose a novel
strategy for answer selection, called hierarchical ranking. We introduce three
levels of ranking: point-level ranking, pair-level ranking, and list-level
ranking. They formulate their optimization objectives by employing supervisory
information from different perspectives to achieve the same goal of ranking
candidate answers. Therefore, the three levels of ranking are related and they
can promote each other. We take the well-performed compare-aggregate model as
the backbone and explore three schemes to implement the idea of applying the
hierarchical rankings jointly: the scheme under the Multi-Task Learning (MTL)
strategy, the Ranking Integration (RI) scheme, and the Progressive Ranking
Integration (PRI) scheme. Experimental results on two public datasets, WikiQA
and TREC-QA, demonstrate that the proposed hierarchical ranking is effective.
Our method achieves state-of-the-art (non-BERT) performance on both TREC-QA and
WikiQA.
- Abstract(参考訳): 回答の選択は、与えられた質問に対する候補回答のプールから正の回答を選択するタスクです。
本稿では,階層的ランキングという,解答選択のための新しい戦略を提案する。
我々は,ポイントレベルのランキング,ペアレベルのランキング,リストレベルのランキングの3つの階層を導入する。
候補者の回答をランキングするのと同じ目標を達成するために、異なる視点からの監督情報を使用して最適化目標を策定します。
したがって、3つのレベルは関連しており、互いに促進することができる。
我々は,多タスク学習(mtl)戦略に基づくスキーム,ランキング統合(ri)スキーム,プログレッシブランキング統合(pri)スキームという,階層的ランキングを共同で適用するための3つのスキームを検討した。
WikiQA と TREC-QA の2つの公開データセットによる実験結果から,提案した階層的ランキングが有効であることを示す。
TREC-QAとWikiQAの両方で最新の(非BERT)パフォーマンスを実現します。
関連論文リスト
- AGRaME: Any-Granularity Ranking with Multi-Vector Embeddings [53.78802457488845]
我々は,多ベクトル埋め込みを利用して粒度の異なるレベルにランク付けする,任意の粒度ランキングの考え方を紹介した。
検索強化世代におけるポストホック励振付加への命題レベルのランク付けの適用を実証する。
論文 参考訳(メタデータ) (2024-05-23T20:04:54Z) - Full Stage Learning to Rank: A Unified Framework for Multi-Stage Systems [40.199257203898846]
我々は,多段階システム,すなわちGPRP(Generalized Probability Ranking Principle)のための改良されたランキング原理を提案する。
GPRPは、システムパイプラインの各ステージにおける選択バイアスと、ユーザの基本的な関心の両方を強調している。
我々の中核的な考え方は、まず次の段階における選択バイアスを推定し、次に下流モジュールの選択バイアスに最もよく適合するランキングモデルを学ぶことである。
論文 参考訳(メタデータ) (2024-05-08T06:35:04Z) - LiPO: Listwise Preference Optimization through Learning-to-Rank [62.02782819559389]
ポリシーは、プロンプトによってランク付けされた妥当な応答のリストからより効果的に学習することができる。
LiPO-$lambda$ は DPO 変種と SLiC をいくつかの選好アライメントタスクにおいて明確なマージンで上回ることを示す。
論文 参考訳(メタデータ) (2024-02-02T20:08:10Z) - Replace Scoring with Arrangement: A Contextual Set-to-Arrangement
Framework for Learning-to-Rank [40.81502990315285]
ラーニング・トゥ・ランク(Learning-to-rank)は、トップNレコメンデーションタスクの中核的なテクニックであり、理想的なランク付けはアイテムからアレンジへのマッピングである。
既存のソリューションのほとんどは確率的ランキング原理(PRP)のパラダイムに該当する。すなわち、まず候補セットで各項目をスコアし、次にソート操作を行い、トップランキングリストを生成する。
本稿では,個別のスコアリングやソートを必要とせずに,候補項目の順列を直接生成する新しいフレームワークであるSet-To-Arrangement Ranking (STARank)を提案する。
論文 参考訳(メタデータ) (2023-08-05T12:22:26Z) - Large Language Models are Zero-Shot Rankers for Recommender Systems [76.02500186203929]
本研究では,レコメンダシステムのランキングモデルとして機能する大規模言語モデル(LLM)の能力を検討することを目的とする。
LLMにはゼロショットランキング能力があるが、歴史的相互作用の順序を理解するのに苦労していることを示す。
これらの問題は、特別に設計されたプロンプトとブートストラップ戦略によって緩和可能であることを実証する。
論文 参考訳(メタデータ) (2023-05-15T17:57:39Z) - When and What to Ask Through World States and Text Instructions: IGLU
NLP Challenge Solution [6.36729066736314]
協調作業においては、効果的なコミュニケーションが共同目標達成に不可欠である。
我々は対話を通してユーザ入力に基づく構造を構築するインテリジェントなビルダーエージェントの開発を目指している。
論文 参考訳(メタデータ) (2023-05-09T20:23:17Z) - Multi-Task Off-Policy Learning from Bandit Feedback [54.96011624223482]
本稿では,階層型非政治最適化アルゴリズム (HierOPO) を提案する。
学習方針の準最適性にタスクごとのバウンダリを証明し、階層モデルを使用しないよりも明確な改善を示す。
我々の理論的および実証的な結果は、各タスクを個別に解くよりも、階層を使うことの明確な利点を示している。
論文 参考訳(メタデータ) (2022-12-09T08:26:27Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Heuristic Search for Rank Aggregation with Application to Label Ranking [16.275063634853584]
本稿では,階層化問題を解くために,効果的なハイブリッド進化的ランキングアルゴリズムを提案する。
このアルゴリズムは、コンコーダントペアに基づくセマンティッククロスオーバーと、効率的な漸進的評価手法によって強化された遅延受容局所探索を特徴とする。
アルゴリズムを評価するために実験が行われ、ベンチマークインスタンス上での高い競争性能を示す。
論文 参考訳(メタデータ) (2022-01-11T11:43:17Z) - RnG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base
Question Answering [57.94658176442027]
KBQAのランク・アンド・ジェネレートアプローチであるRnG-KBQAを提案する。
我々はGrailQA と WebQSP データセット上で,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2021-09-17T17:58:28Z) - Ensemble- and Distance-Based Feature Ranking for Unsupervised Learning [2.7921429800866533]
教師なしの特徴ランク付けと選択のための2つの新しい手法(グループ)を提案する。
最初のグループには、予測クラスタリングツリーのアンサンブルから計算される機能ランキングスコア(Genie3スコア、RandomForestスコア)が含まれている。
2つ目の方法は、特徴ランクアルゴリズムのReliefファミリの教師なし拡張であるUReliefである。
論文 参考訳(メタデータ) (2020-11-23T19:17:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。