論文の概要: Red Dragon AI at TextGraphs 2020 Shared Task: LIT : LSTM-Interleaved
Transformer for Multi-Hop Explanation Ranking
- arxiv url: http://arxiv.org/abs/2012.14164v1
- Date: Mon, 28 Dec 2020 09:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 11:11:35.516218
- Title: Red Dragon AI at TextGraphs 2020 Shared Task: LIT : LSTM-Interleaved
Transformer for Multi-Hop Explanation Ranking
- Title(参考訳): TextGraphs 2020のRed Dragon AI共有タスク:マルチホップ説明ランク付けのためのLSTMインターリーブ変換器
- Authors: Yew Ken Chia and Sam Witteveen and Martin Andrews
- Abstract要約: LSTM-Interleaved Transformerは,各クエリとドキュメントのペアを分離して表示するためのメソッドの制限に対処すべく提案する。
LITアーキテクチャは、リランク設定で以前のランキングポジションを活用できます。
私たちのモデルは、TextGraphs 2020共有タスクの現在のリーダーボードで競争力があり、テストセットMAP0.5607を達成しました。
- 参考スコア(独自算出の注目度): 0.5156484100374059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable question answering for science questions is a challenging task
that requires multi-hop inference over a large set of fact sentences. To
counter the limitations of methods that view each query-document pair in
isolation, we propose the LSTM-Interleaved Transformer which incorporates
cross-document interactions for improved multi-hop ranking. The LIT
architecture can leverage prior ranking positions in the re-ranking setting.
Our model is competitive on the current leaderboard for the TextGraphs 2020
shared task, achieving a test-set MAP of 0.5607, and would have gained third
place had we submitted before the competition deadline. Our code implementation
is made available at
https://github.com/mdda/worldtree_corpus/tree/textgraphs_2020
- Abstract(参考訳): 科学的な疑問に答える説明可能な質問は、大量の事実文に対してマルチホップ推論を必要とする課題である。
クエリとドキュメントのペアを個別に見る方法の制限に対処するため,マルチホップランキングを改善するために,クロスドキュメントインタラクションを組み込んだLSTM-Interleaved Transformerを提案する。
LITアーキテクチャは、再ランク設定において、事前のランキング位置を利用することができる。
私たちのモデルは、現在のTextGraphs 2020共有タスクのリーダーボードで競争力があり、テストセットMAPの0.5607を達成しています。
私たちのコード実装はhttps://github.com/mdda/worldtree_corpus/tree/textgraphs_2020で利用可能です。
関連論文リスト
- Residual Multi-Task Learner for Applied Ranking [11.774841918446137]
ResFlowは、効率的なクロスタスク情報共有を可能にする軽量なマルチタスク学習フレームワークである。
Shopee Searchのプレランクモジュールに完全にデプロイされている。
論文 参考訳(メタデータ) (2024-10-30T06:49:45Z) - HIMO: A New Benchmark for Full-Body Human Interacting with Multiple Objects [86.86284624825356]
HIMOは、複数のオブジェクトと相互作用するフルボディの人間のデータセットである。
HIMOは3.3K 4D HOIシーケンスと4.08M 3D HOIフレームを含む。
論文 参考訳(メタデータ) (2024-07-17T07:47:34Z) - UniHD at TSAR-2022 Shared Task: Is Compute All We Need for Lexical
Simplification? [2.931632009516441]
GPT-3応答に基づくパイプラインを記述し、少数のトレーニングインスタンスで、幅広い設定で競合するアプローチを上回ります。
スペイン語とポルトガル語のサブセットを適用することで、従来のプロンプトに小さな変更を加えるだけで、最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-01-04T18:59:20Z) - Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - Red Dragon AI at TextGraphs 2021 Shared Task: Multi-Hop Inference
Explanation Regeneration by Matching Expert Ratings [0.5156484100374059]
今年、関連するステートメントを収集する問題について、Textgraphs Shared Taskを再フォーカスするため、WorldTreeデータセットは、各説明全体に対して「関連性」のステートメントを専門的に評価して拡張された。
我々のシステムは、共有タスクのリーダーボードで2位を獲得し、最初のステートメントの検索、関連性のスコアを予測するために訓練された言語モデル、そしてその結果のランキングをまとめる。
論文 参考訳(メタデータ) (2021-07-27T18:29:51Z) - Three Sentences Are All You Need: Local Path Enhanced Document Relation
Extraction [54.95848026576076]
本稿では,文書レベルREのエビデンス文を選択するための,恥ずかしいほど単純だが効果的な方法を提案する。
私たちはhttps://github.com/AndrewZhe/Three-Sentences-Are-All-You-Need.comでコードを公開しました。
論文 参考訳(メタデータ) (2021-06-03T12:29:40Z) - TransferNet: An Effective and Transparent Framework for Multi-hop
Question Answering over Relation Graph [66.09674676187453]
transfernetはマルチホップ質問応答の効果的で透明なモデルである。
ラベルとテキストの関係を統一されたフレームワークでサポートする。
2ホップと3ホップの質問で100%精度を達成する。
論文 参考訳(メタデータ) (2021-04-15T08:23:05Z) - Multi-hop Question Generation with Graph Convolutional Network [58.31752179830959]
マルチホップ質問生成(Multi-hop Question Generation, QG)は,異なる段落から散在する複数の証拠を集約・推論することで,回答に関連する質問を生成することを目的とする。
複数のホップでコンテキストエンコーディングを行うMulQG(Multi-Hop volution Fusion Network for Question Generation)を提案する。
提案モデルでは,高い完全性を有する流動的な質問を生成することができ,マルチホップ評価において,最強のベースラインを20.8%向上させることができる。
論文 参考訳(メタデータ) (2020-10-19T06:15:36Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z) - UCD-CS at W-NUT 2020 Shared Task-3: A Text to Text Approach for COVID-19
Event Extraction on Social Media [3.5585697639325113]
当社のアプローチを共有タスクで説明する。TwitterからCOVID-19イベントを抽出する。
このタスクの目的は、新型コロナウイルスに関連するツイートから、事前に定義されたスロット満載の質問に回答を抽出することである。
本稿では,T5テキスト・テキスト・モデルを用いて,イベント抽出タスクを質問応答タスクとして扱う。
論文 参考訳(メタデータ) (2020-09-21T17:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。