論文の概要: SsciBERT: A Pre-trained Language Model for Social Science Texts
- arxiv url: http://arxiv.org/abs/2206.04510v1
- Date: Thu, 9 Jun 2022 13:49:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 14:06:04.070793
- Title: SsciBERT: A Pre-trained Language Model for Social Science Texts
- Title(参考訳): SsciBERT: 社会科学テキストのための事前学習型言語モデル
- Authors: Si Shen, Jiangfeng Liu, Litao Lin, Ying Huang, Lin Zhang, Chang Liu,
Yutong Feng, Dongbo Wang
- Abstract要約: 社会科学の学術文献は、人間の文明を記録、人間の社会問題を研究する文献である。
SciBERTのような以前の研究では、ドメイン固有のテキストを使った事前学習が自然言語処理タスクの性能を向上させることが示されている。
本稿では,ソーシャルサイエンス・サイテーション・インデックス(SSCI)ジャーナルに掲載されている多くの抽象化に関する事前学習モデルを提案する。
- 参考スコア(独自算出の注目度): 8.335400197962727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The academic literature of social sciences is the literature that records
human civilization and studies human social problems. With the large-scale
growth of this literature, ways to quickly find existing research on relevant
issues have become an urgent demand for researchers. Previous studies, such as
SciBERT, have shown that pre-training using domain-specific texts can improve
the performance of natural language processing tasks in those fields. However,
there is no pre-trained language model for social sciences, so this paper
proposes a pre-trained model on many abstracts published in the Social Science
Citation Index (SSCI) journals. The models, which are available on Github
(https://github.com/S-T-Full-Text-Knowledge-Mining/SSCI-BERT), show excellent
performance on discipline classification and abstract structure-function
recognition tasks with the social sciences literature.
- Abstract(参考訳): 社会科学の学術文献は、人間の文明を記録、人間の社会問題を研究する文献である。
この文献が大規模に発展するにつれて、既存の研究を迅速に見つけ出す方法が研究者にとって緊急の要求となっている。
SciBERTのような以前の研究では、ドメイン固有のテキストを用いた事前学習が、これらの分野における自然言語処理タスクの性能を向上させることが示されている。
しかし、社会科学のための事前学習された言語モデルは存在しないため、ssci(social science citation index)ジャーナルに発表された多くの抽象概念の事前学習モデルを提案する。
これらのモデルはGithub(https://github.com/S-T-Full-Text-Knowledge-Mining/SSCI-BERT)で公開されている。
関連論文リスト
- PROMPTHEUS: A Human-Centered Pipeline to Streamline SLRs with LLMs [0.0]
PROMPTHEUSは、システム文学レビューのためのAI駆動パイプラインソリューションである。
システム検索、データ抽出、トピックモデリング、要約など、SLRプロセスの重要な段階を自動化する。
高い精度を実現し、一貫性のあるトピック組織を提供し、レビュー時間を短縮します。
論文 参考訳(メタデータ) (2024-10-21T13:05:33Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - SS-GEN: A Social Story Generation Framework with Large Language Models [87.11067593512716]
自閉症スペクトラム障害(ASD)を持つ子供たちは、しばしば社会的状況を誤解し、日々のルーチンに参加するのに苦労する。
社会物語は伝統的にこれらの課題に対処するために厳格な制約の下で心理学の専門家によって作られた。
幅広い範囲でリアルタイムでソーシャルストーリーを生成するフレームワークである textbfSS-GEN を提案する。
論文 参考訳(メタデータ) (2024-06-22T00:14:48Z) - SciRIFF: A Resource to Enhance Language Model Instruction-Following over Scientific Literature [80.49349719239584]
SciRIFF(Scientific Resource for Instruction-Following and Finetuning, SciRIFF)は、54のタスクに対して137Kの命令追従デモのデータセットである。
SciRIFFは、幅広い科学分野の研究文献から情報を抽出し、合成することに焦点を当てた最初のデータセットである。
論文 参考訳(メタデータ) (2024-06-10T21:22:08Z) - PaperQA: Retrieval-Augmented Generative Agent for Scientific Research [41.9628176602676]
本稿では,科学文献に関する質問に回答するためのRAGエージェントPaperQAを紹介する。
PaperQAは、全文の科学論文を通じて情報検索を行い、ソースやパスの関連性を評価し、RAGを使用して回答を提供するエージェントである。
また、文献全体にわたる全文科学論文からの情報の検索と合成を必要とする、より複雑なベンチマークであるLitQAを紹介する。
論文 参考訳(メタデータ) (2023-12-08T18:50:20Z) - Data Science for Social Good [2.8621556092850065]
本稿では,「データ・サイエンス・フォー・ソーシャル・グッド」(DSSG)研究の枠組みについて述べる。
本研究では,情報システムにおけるDSSG研究の質を実証的に示すために,文献の分析を行う。
この記事と特別号が今後のDSSG研究を刺激することを期待している。
論文 参考訳(メタデータ) (2023-11-02T15:40:20Z) - Context Matters: A Strategy to Pre-train Language Model for Science
Education [4.053049694533914]
BERTベースの言語モデルは、様々な言語関連タスクにおいて、従来のNLPモデルよりも大きな優位性を示している。
学生が使用する言語は、BERTのトレーニングソースであるジャーナルやウィキペディアの言語とは異なる。
本研究は,教育領域におけるドメイン固有データに対する継続事前学習の有効性を確認した。
論文 参考訳(メタデータ) (2023-01-27T23:50:16Z) - Word Embedding for Social Sciences: An Interdisciplinary Survey [9.657531563610767]
我々は,調査論文の方法と手順を説明するための分類学を構築した。
この調査はまた、文献で使われる共通類似度の測定が異なる結果をもたらすことを警告するための簡単な実験も行った。
論文 参考訳(メタデータ) (2022-07-07T04:49:21Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。