論文の概要: Incorporating External Knowledge to Enhance Tabular Reasoning
- arxiv url: http://arxiv.org/abs/2104.04243v1
- Date: Fri, 9 Apr 2021 08:25:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 18:25:18.052142
- Title: Incorporating External Knowledge to Enhance Tabular Reasoning
- Title(参考訳): 語彙推論を促進するための外部知識の導入
- Authors: J. Neeraja, Vivek Gupta, Vivek Srikumar
- Abstract要約: 本稿では,このタスクのモデルに情報がどのように提示されるか,容易かつ効果的な修正を提案する。
これらの戦略が表推論性能を実質的に改善することを系統的実験によって示します。
- 参考スコア(独自算出の注目度): 22.929779833484787
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning about tabular information presents unique challenges to modern NLP
approaches which largely rely on pre-trained contextualized embeddings of text.
In this paper, we study these challenges through the problem of tabular natural
language inference. We propose easy and effective modifications to how
information is presented to a model for this task. We show via systematic
experiments that these strategies substantially improve tabular inference
performance.
- Abstract(参考訳): 表形式の情報に関する推論は、学習済みの文脈化されたテキストの埋め込みに依存する現代のNLPアプローチに固有の課題をもたらす。
本稿では,これらの課題を,表型自然言語推論の問題を通して考察する。
本稿では,このタスクのモデルに情報がどのように提示されるか,容易かつ効果的な修正を提案する。
本研究では,これらの手法が表層推論性能を大幅に向上させることを示す。
関連論文リスト
- Text Serialization and Their Relationship with the Conventional Paradigms of Tabular Machine Learning [0.0]
本研究では,機械学習タスクにおける特徴表現と予測に言語モデル(LM)をどのように使用できるかを検討する。
本研究は,新しいLM技術が表型機械学習の伝統的なパラダイムとどのように比較されるかを評価する。
以上の結果から,現在の事前学習モデルは従来の手法に取って代わるべきではないことがわかった。
論文 参考訳(メタデータ) (2024-06-19T21:19:37Z) - Enhancing Spatio-temporal Quantile Forecasting with Curriculum Learning: Lessons Learned [11.164896279040379]
問題時間データ(ST)データのトレーニングモデルは、データ自体の複雑で多様な性質のため、オープンな積み重ねとなる。
モデルの性能が元のSTデータに基づいて直接訓練されることを保証することは困難である。
本稿では,空間的,時間的,定量的な視点を対象とする3種類のカリキュラム学習を取り入れた革新的パラダイムを提案する。
論文 参考訳(メタデータ) (2024-06-18T15:23:10Z) - Large Language Models for Next Point-of-Interest Recommendation [53.93503291553005]
位置情報ベースのソーシャルネットワーク(LBSN)データは、しばしば次のPoint of Interest(POI)レコメンデーションタスクに使用される。
しばしば無視される課題の1つは、LBSNデータに存在する豊富なコンテキスト情報を効果的に利用する方法である。
本稿では,この課題に対処するために,LLM(Large Language Models)を用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-19T13:28:36Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - Textual Enhanced Contrastive Learning for Solving Math Word Problems [23.196339273292246]
本稿では,意味的に類似した例を識別するためにモデルを強制するテキスト拡張コントラスト学習フレームワークを提案する。
テキストの微妙なばらつきのある例を豊かにするために、自己監督的な方法戦略を採用する。
実験結果から,提案手法は広く使用されているベンチマークデータセットと,英語と中国語の課題データセットの両面において,最先端性を実現していることが明らかとなった。
論文 参考訳(メタデータ) (2022-11-29T08:44:09Z) - Enhancing Tabular Reasoning with Pattern Exploiting Training [14.424742483714846]
事前学習型言語モデルに基づく最近の手法は,表型タスクよりも優れた性能を示した。
本研究では,これらの推論モデルの既存の知識と推論能力を強化するために,事前学習言語モデルにおけるパターン探索訓練(PET)を利用する。
論文 参考訳(メタデータ) (2022-10-21T21:28:18Z) - FedOS: using open-set learning to stabilize training in federated
learning [0.0]
フェデレートラーニング(Federated Learning)は、プライバシ制約に違反することなく、分散データセット上で統計モデルをトレーニングする、新たなアプローチである。
本報告では,この新たな研究領域を探索し,これらの課題の理解を深めるため,いくつかの実験を行う。
本稿では,これらの課題の1つに新しいアプローチを提案し,文献で見られる他の手法と比較する。
論文 参考訳(メタデータ) (2022-08-22T19:53:39Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Obtaining Better Static Word Embeddings Using Contextual Embedding
Models [53.86080627007695]
提案手法はCBOWをベースとした簡易な蒸留法である。
副作用として、我々の手法は文脈的および静的な埋め込みの公正な比較を可能にする。
論文 参考訳(メタデータ) (2021-06-08T12:59:32Z) - Improving Disentangled Text Representation Learning with
Information-Theoretic Guidance [99.68851329919858]
自然言語の独特な性質は、テキスト表現の分離をより困難にする。
情報理論にインスパイアされた本研究では,テキストの不整合表現を効果的に表現する手法を提案する。
条件付きテキスト生成とテキストスタイル転送の両方の実験は、不整合表現の質を実証する。
論文 参考訳(メタデータ) (2020-06-01T03:36:01Z) - Incidental Supervision: Moving beyond Supervised Learning [72.4859717204905]
本稿では、監視ボトルネックを軽減するために設計された学習パラダイムについて述べる。
それは、テキストから様々なレベルの意味表現を誘導することに関連する、複数の問題の文脈におけるそれらの利点を説明する。
論文 参考訳(メタデータ) (2020-05-25T18:44:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。