論文の概要: Mapping Researcher Activity based on Publication Data by means of
Transformers
- arxiv url: http://arxiv.org/abs/2306.09049v1
- Date: Thu, 15 Jun 2023 11:13:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:03:31.831603
- Title: Mapping Researcher Activity based on Publication Data by means of
Transformers
- Title(参考訳): 変圧器による出版データに基づく地図研究者の活動
- Authors: Zineddine Bettouche and Andreas Fischer
- Abstract要約: 我々はこの概念を地域出版データベースの調査に用いている。
研究論文は、科学的トピックのランドスケープビューを形成するためにエンコードされ、クラスタ化されている。
同様のトピックに取り組んでいる著者は、論文間の類似性を計算することで特定することができる。
- 参考スコア(独自算出の注目度): 0.6367279911825442
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Modern performance on several natural language processing (NLP) tasks has
been enhanced thanks to the Transformer-based pre-trained language model BERT.
We employ this concept to investigate a local publication database. Research
papers are encoded and clustered to form a landscape view of the scientific
topics, in which research is active. Authors working on similar topics can be
identified by calculating the similarity between their papers. Based on this,
we define a similarity metric between authors. Additionally we introduce the
concept of self-similarity to indicate the topical variety of authors.
- Abstract(参考訳): いくつかの自然言語処理(NLP)タスクのモダンなパフォーマンスは、Transformerベースの事前訓練言語モデルBERTのおかげで向上した。
我々はこの概念を地域出版データベースの調査に用いている。
研究論文はエンコードされ、クラスタ化され、研究が活発な科学トピックのランドスケープビューを形成する。
類似したトピックを扱う著者は、論文間の類似性を計算することで識別することができる。
これに基づいて著者間の類似度指標を定義する。
また,著者の主題的多様性を示すために,自己相似性の概念を導入する。
関連論文リスト
- Automatic Aspect Extraction from Scientific Texts [0.9208007322096533]
我々は,タスク,コントリビューション,メソッド,コンクルージョンといった側面を付加した,ロシア語の科学テキストのクロスドメインデータセットを提示する。
異なる領域のアスペクト表現にはいくつかの相違があることが示されるが、我々のモデルは限られた数の科学領域で訓練されており、新しい領域に一般化することが可能である。
論文 参考訳(メタデータ) (2023-10-06T07:59:54Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Exploring Linguistic Properties of Monolingual BERTs with Typological
Classification among Languages [2.4000693079299684]
言語間の類型的類似性を利用して、それぞれのモノリンガルモデルがどのように構造情報を符号化するかを観察する。
統語型型的類似性は中層における重みの類似性と一致している。
意味論的に等価なテキストに対するドメイン適応は、重み行列間のこの類似性を高める。
論文 参考訳(メタデータ) (2023-05-03T15:52:17Z) - Application of Transformers based methods in Electronic Medical Records:
A Systematic Literature Review [77.34726150561087]
本研究は,異なるNLPタスクにおける電子カルテ(EMR)のトランスフォーマーに基づく手法を用いて,最先端技術に関する体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-04-05T22:19:42Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Myers-Briggs personality classification from social media text using
pre-trained language models [0.0]
本稿では, MBTI分類を行うために, BERTモデルによる双方向表現を微調整した一連の実験について述べる。
本研究の主目的は, 単語のバッグや静的な単語の埋め込みなどに基づいて, テキスト分類モデルの性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-07-10T14:38:09Z) - A Framework for Neural Topic Modeling of Text Corpora [6.340447411058068]
テキストの特徴を抽出し,組み込むための効率的なメカニズムを実現するためのオープンソースフレームワークであるFAMEを紹介した。
本ライブラリの有効性を示すために,よく知られたNews-Groupデータセットの実験を行った。
論文 参考訳(メタデータ) (2021-08-19T23:32:38Z) - Predicting the Reproducibility of Social and Behavioral Science Papers
Using Supervised Learning Models [21.69933721765681]
本論文では,学術研究から5種類の特徴を抽出し,公開研究クレームの評価を支援するフレームワークを提案する。
個々の特徴と人間評価の基底真理ラベルのセットを予測するための重要性のペアワイズ相関を分析します。
論文 参考訳(メタデータ) (2021-04-08T00:45:20Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。