論文の概要: Deep Attentive Ranking Networks for Learning to Order Sentences
- arxiv url: http://arxiv.org/abs/2001.00056v1
- Date: Tue, 31 Dec 2019 19:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 20:06:30.943857
- Title: Deep Attentive Ranking Networks for Learning to Order Sentences
- Title(参考訳): 順序付け学習のための深層注意ランキングネットワーク
- Authors: Pawan Kumar, Dhanajit Brahma, Harish Karnick, Piyush Rai
- Abstract要約: 本稿では,1段落の文の順序付けを学習するための注意に基づく格付けフレームワークを提案する。
本フレームワークは,双方向文エンコーダと自己認識型トランスフォーマネットワーク上に構築されている。
ポイントワイド、ペアワイド、リストワイドランキングなど、さまざまなランキングベースの損失関数を使用したシームレスなトレーニングを可能にする。
- 参考スコア(独自算出の注目度): 31.70737249775046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an attention-based ranking framework for learning to order
sentences given a paragraph. Our framework is built on a bidirectional sentence
encoder and a self-attention based transformer network to obtain an input order
invariant representation of paragraphs. Moreover, it allows seamless training
using a variety of ranking based loss functions, such as pointwise, pairwise,
and listwise ranking. We apply our framework on two tasks: Sentence Ordering
and Order Discrimination. Our framework outperforms various state-of-the-art
methods on these tasks on a variety of evaluation metrics. We also show that it
achieves better results when using pairwise and listwise ranking losses, rather
than the pointwise ranking loss, which suggests that incorporating relative
positions of two or more sentences in the loss function contributes to better
learning.
- Abstract(参考訳): 文の順序を学習するための注意に基づくランキングフレームワークを提案する。
本手法は,双方向文エンコーダと自己接続に基づくトランスフォーマネットワークを基盤とし,段落の入力順序不変表現を得る。
さらに、ポイントワイズ、ペアワイズ、リストワイズランキングなど、さまざまなランキングベースの損失関数を使用したシームレスなトレーニングが可能になる。
文の順序付けと順序識別という2つのタスクにフレームワークを適用します。
当社のフレームワークは,これらのタスクにおいて,さまざまな評価指標で最先端のメソッドよりも優れています。
また,2つ以上の文の相対的な位置を損失関数に組み込むことが,よりよい学習に寄与することを示唆する。
関連論文リスト
- AGRaME: Any-Granularity Ranking with Multi-Vector Embeddings [53.78802457488845]
我々は,多ベクトル埋め込みを利用して粒度の異なるレベルにランク付けする,任意の粒度ランキングの考え方を紹介した。
検索強化世代におけるポストホック励振付加への命題レベルのランク付けの適用を実証する。
論文 参考訳(メタデータ) (2024-05-23T20:04:54Z) - Partitioned Saliency Ranking with Dense Pyramid Transformers [4.449304130658638]
サリエンシランキングは、インスタンスレベルのサリエンシの度合いを評価することに焦点を当てた、挑戦的なタスクとして登場した。
従来のアプローチでは、固有の曖昧さを明示的に解決していない有能なインスタンスのランクスコアを直接ソートすることで、サリエンシのランク付けを行っている。
本稿では,非順序の有意なインスタンスをパーティションに分割し,それらのパーティション間の相関に基づいてランク付けするパーティション・バイ・パーティション・パラダイムを提案する。
論文 参考訳(メタデータ) (2023-08-01T02:33:10Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - RankCSE: Unsupervised Sentence Representations Learning via Learning to
Rank [54.854714257687334]
本稿では,教師なし文表現学習のための新しい手法であるRangCSEを提案する。
コントラスト学習を伴うランキング一貫性とランキング蒸留を統一された枠組みに組み込む。
セマンティックテキスト類似性(STS)と転送タスク(TR)の両方について、広範な実験が実施されている。
論文 参考訳(メタデータ) (2023-05-26T08:27:07Z) - Learning List-Level Domain-Invariant Representations for Ranking [59.3544317373004]
リストレベルのアライメント -- より高いレベルのリストでドメイン不変表現を学習する。
利点は2つある: これは、ランク付けに縛られる最初のドメイン適応の一般化をもたらし、その結果、提案法に対する理論的支援を提供する。
論文 参考訳(メタデータ) (2022-12-21T04:49:55Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Rank over Class: The Untapped Potential of Ranking in Natural Language
Processing [8.637110868126546]
我々は、現在分類を用いて対処されている多くのタスクが、実際には分類モールドに切り替わっていると論じる。
本稿では,一対のテキストシーケンスの表現を生成するトランスフォーマーネットワークからなる新しいエンドツーエンドランキング手法を提案する。
重く歪んだ感情分析データセットの実験では、ランキング結果を分類ラベルに変換すると、最先端のテキスト分類よりも約22%改善する。
論文 参考訳(メタデータ) (2020-09-10T22:18:57Z) - A Unified Framework of Surrogate Loss by Refactoring and Interpolation [65.60014616444623]
勾配勾配を有する深層ネットワークのトレーニングにおいて,サロゲート損失を発生させる統一フレームワークUniLossを導入する。
3つのタスクと4つのデータセットに対するUniLossの有効性を検証する。
論文 参考訳(メタデータ) (2020-07-27T21:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。