論文の概要: Extracting Psychological Indicators Using Question Answering
- arxiv url: http://arxiv.org/abs/2305.14891v1
- Date: Wed, 24 May 2023 08:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 18:03:25.961969
- Title: Extracting Psychological Indicators Using Question Answering
- Title(参考訳): 質問応答を用いた心理指標抽出
- Authors: Luka Pavlovi\'c
- Abstract要約: 本稿では,BIG5の心理的特徴の1つを示すテキストスパン抽出手法を提案する。
我々はSQuAD 2.0データセットを微調整したRoBERTaモデルを利用した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a method for extracting text spans that may indicate
one of the BIG5 psychological traits using a question-answering task with
examples that have no answer for the asked question. We utilized the RoBERTa
model fine-tuned on SQuAD 2.0 dataset. The model was further fine-tuned
utilizing comments from Reddit. We examined the effect of the percentage of
examples with no answer in the training dataset on the overall performance. The
results obtained in this study are in line with the SQuAD 2.0 benchmark and
present a good baseline for further research.
- Abstract(参考訳): そこで本研究では,質問応答のない例を用いて,質問応答タスクを用いて,ビッグ5の心理的特徴の1つを示すテキストスパンを抽出する手法を提案する。
我々はSQuAD 2.0データセットを微調整したRoBERTaモデルを利用した。
このモデルはredditのコメントを利用してさらに微調整された。
トレーニングデータセットに回答のない例の割合が全体のパフォーマンスに与える影響について検討した。
本研究で得られた結果は、SQuAD 2.0ベンチマークと一致し、さらなる研究のための良いベースラインを提供する。
関連論文リスト
- Answerability in Retrieval-Augmented Open-Domain Question Answering [17.177439885871788]
Open-Domain Question Answering (ODQA) 検索システムは準最適動作を示すことができ、テキストの抜粋は無関係である。
このギャップに対処する以前の試みは、ランダムテキストの抜粋とペアリングする単純なアプローチに頼っていた。
論文 参考訳(メタデータ) (2024-03-03T09:55:35Z) - Open vs Closed-ended questions in attitudinal surveys -- comparing,
combining, and interpreting using natural language processing [3.867363075280544]
トピックモデリングは、オープンな応答から情報を抽出する時間を著しく短縮する可能性がある。
本研究はトピックモデリングを用いて,オープンエンド質問から情報を抽出し,その性能をクローズドエンド応答と比較する。
論文 参考訳(メタデータ) (2022-05-03T06:01:03Z) - Question-Answer Sentence Graph for Joint Modeling Answer Selection [122.29142965960138]
我々は,質問文,質問文,回答文のペア間のスコアを計算するための最先端(SOTA)モデルを訓練し,統合する。
オンライン推論は、目に見えないクエリのAS2タスクを解決するために実行される。
論文 参考訳(メタデータ) (2022-02-16T05:59:53Z) - Reference-based Weak Supervision for Answer Sentence Selection using Web
Data [87.18646699292293]
完全自動大規模データパイプラインであるReference-based Weak Supervision (RWS)を紹介する。
RWSは豊富なWebデータから高品質な教師付き回答を抽出する。
我々の実験は、生成したデータが常にTANDAを支えていることを示している。
論文 参考訳(メタデータ) (2021-04-18T19:41:17Z) - Learning Compositional Representation for Few-shot Visual Question
Answering [93.4061107793983]
現在の視覚的質問応答の方法は、トレーニングデータ量で回答を良好に実行するが、例が少ない新規回答では精度が限られている。
回答から属性を十分なデータで抽出することを提案するが、これは後に数ショットの学習を制限するために構成される。
VQA v2.0検証データセットの実験結果から,提案した属性ネットワークの有効性が示された。
論文 参考訳(メタデータ) (2021-02-21T10:16:24Z) - Overcoming Language Priors with Self-supervised Learning for Visual
Question Answering [62.88124382512111]
ほとんどのビジュアル質問回答(VQA)モデルは、言語の先行問題に苦しんでいます。
この問題を解決するための自己監督学習フレームワークを紹介します。
我々の手法は最先端の手法を大きく上回ることができる。
論文 参考訳(メタデータ) (2020-12-17T12:30:12Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。