論文の概要: Hierarchical Ranking for Answer Selection
- arxiv url: http://arxiv.org/abs/2102.00677v1
- Date: Mon, 1 Feb 2021 07:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:48:36.029289
- Title: Hierarchical Ranking for Answer Selection
- Title(参考訳): 回答選択のための階層的ランキング
- Authors: Hang Gao, Mengting Hu, Renhong Cheng, Tiegang Gao
- Abstract要約: 階層的ランキング(hierarchical ranking)と呼ばれる,回答選択のための新しい戦略を提案する。
ポイントレベルのランキング、ペアレベルのランキング、リストレベルのランキングの3つのレベルを導入します。
WikiQA と TREC-QA の2つの公開データセットによる実験結果から,提案した階層的ランキングが有効であることを示す。
- 参考スコア(独自算出の注目度): 19.379777219863964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Answer selection is a task to choose the positive answers from a pool of
candidate answers for a given question. In this paper, we propose a novel
strategy for answer selection, called hierarchical ranking. We introduce three
levels of ranking: point-level ranking, pair-level ranking, and list-level
ranking. They formulate their optimization objectives by employing supervisory
information from different perspectives to achieve the same goal of ranking
candidate answers. Therefore, the three levels of ranking are related and they
can promote each other. We take the well-performed compare-aggregate model as
the backbone and explore three schemes to implement the idea of applying the
hierarchical rankings jointly: the scheme under the Multi-Task Learning (MTL)
strategy, the Ranking Integration (RI) scheme, and the Progressive Ranking
Integration (PRI) scheme. Experimental results on two public datasets, WikiQA
and TREC-QA, demonstrate that the proposed hierarchical ranking is effective.
Our method achieves state-of-the-art (non-BERT) performance on both TREC-QA and
WikiQA.
- Abstract(参考訳): 回答の選択は、与えられた質問に対する候補回答のプールから正の回答を選択するタスクです。
本稿では,階層的ランキングという,解答選択のための新しい戦略を提案する。
我々は,ポイントレベルのランキング,ペアレベルのランキング,リストレベルのランキングの3つの階層を導入する。
候補者の回答をランキングするのと同じ目標を達成するために、異なる視点からの監督情報を使用して最適化目標を策定します。
したがって、3つのレベルは関連しており、互いに促進することができる。
我々は,多タスク学習(mtl)戦略に基づくスキーム,ランキング統合(ri)スキーム,プログレッシブランキング統合(pri)スキームという,階層的ランキングを共同で適用するための3つのスキームを検討した。
WikiQA と TREC-QA の2つの公開データセットによる実験結果から,提案した階層的ランキングが有効であることを示す。
TREC-QAとWikiQAの両方で最新の(非BERT)パフォーマンスを実現します。
関連論文リスト
- Replace Scoring with Arrangement: A Contextual Set-to-Arrangement
Framework for Learning-to-Rank [40.81502990315285]
ラーニング・トゥ・ランク(Learning-to-rank)は、トップNレコメンデーションタスクの中核的なテクニックであり、理想的なランク付けはアイテムからアレンジへのマッピングである。
既存のソリューションのほとんどは確率的ランキング原理(PRP)のパラダイムに該当する。すなわち、まず候補セットで各項目をスコアし、次にソート操作を行い、トップランキングリストを生成する。
本稿では,個別のスコアリングやソートを必要とせずに,候補項目の順列を直接生成する新しいフレームワークであるSet-To-Arrangement Ranking (STARank)を提案する。
論文 参考訳(メタデータ) (2023-08-05T12:22:26Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - When and What to Ask Through World States and Text Instructions: IGLU
NLP Challenge Solution [6.36729066736314]
協調作業においては、効果的なコミュニケーションが共同目標達成に不可欠である。
我々は対話を通してユーザ入力に基づく構造を構築するインテリジェントなビルダーエージェントの開発を目指している。
論文 参考訳(メタデータ) (2023-05-09T20:23:17Z) - Multi-Task Off-Policy Learning from Bandit Feedback [54.96011624223482]
本稿では,階層型非政治最適化アルゴリズム (HierOPO) を提案する。
学習方針の準最適性にタスクごとのバウンダリを証明し、階層モデルを使用しないよりも明確な改善を示す。
我々の理論的および実証的な結果は、各タスクを個別に解くよりも、階層を使うことの明確な利点を示している。
論文 参考訳(メタデータ) (2022-12-09T08:26:27Z) - Reranking Overgenerated Responses for End-to-End Task-Oriented Dialogue
Systems [71.33737787564966]
エンド・ツー・エンド(E2E)タスク指向対話システム(ToD)は、いわゆる「いいね!
本稿では,システムによって当初過剰に生成された応答リストから高品質な項目を選択する方法を提案する。
本研究では,最先端のE2E ToDシステムを2.4BLEU,3.2ROUGE,2.8 METEORで改善し,新たなピーク値を得た。
論文 参考訳(メタデータ) (2022-11-07T15:59:49Z) - Decision Making for Hierarchical Multi-label Classification with
Multidimensional Local Precision Rate [4.812468844362369]
我々は,各クラスの各対象に対して,多次元局所精度率 (mLPR) と呼ばれる新しい統計モデルを導入する。
我々は,mLPRの下位順序でクラス間でオブジェクトをソートするだけで,クラス階層を確実にすることができることを示す。
これに対し、階層を尊重しながら推定mLPRを用いてCATCHの実証バージョンを最大化する新しいアルゴリズムであるHierRankを導入する。
論文 参考訳(メタデータ) (2022-05-16T17:43:35Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - Heuristic Search for Rank Aggregation with Application to Label Ranking [16.275063634853584]
本稿では,階層化問題を解くために,効果的なハイブリッド進化的ランキングアルゴリズムを提案する。
このアルゴリズムは、コンコーダントペアに基づくセマンティッククロスオーバーと、効率的な漸進的評価手法によって強化された遅延受容局所探索を特徴とする。
アルゴリズムを評価するために実験が行われ、ベンチマークインスタンス上での高い競争性能を示す。
論文 参考訳(メタデータ) (2022-01-11T11:43:17Z) - RnG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base
Question Answering [57.94658176442027]
KBQAのランク・アンド・ジェネレートアプローチであるRnG-KBQAを提案する。
我々はGrailQA と WebQSP データセット上で,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2021-09-17T17:58:28Z) - Ensemble- and Distance-Based Feature Ranking for Unsupervised Learning [2.7921429800866533]
教師なしの特徴ランク付けと選択のための2つの新しい手法(グループ)を提案する。
最初のグループには、予測クラスタリングツリーのアンサンブルから計算される機能ランキングスコア(Genie3スコア、RandomForestスコア)が含まれている。
2つ目の方法は、特徴ランクアルゴリズムのReliefファミリの教師なし拡張であるUReliefである。
論文 参考訳(メタデータ) (2020-11-23T19:17:24Z) - Exploration in two-stage recommender systems [79.50534282841618]
2段階のレコメンデータシステムは、スケーラビリティと保守性のために業界で広く採用されている。
このセットアップの鍵となる課題は、各ステージの最適性能が最適なグローバルパフォーマンスを暗示していないことである。
そこで本研究では,ランクとノミネーター間の探索戦略を同期させる手法を提案する。
論文 参考訳(メタデータ) (2020-09-01T16:52:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。