論文の概要: Mapping Researcher Activity based on Publication Data by means of
Transformers
- arxiv url: http://arxiv.org/abs/2306.09049v1
- Date: Thu, 15 Jun 2023 11:13:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 15:03:31.831603
- Title: Mapping Researcher Activity based on Publication Data by means of
Transformers
- Title(参考訳): 変圧器による出版データに基づく地図研究者の活動
- Authors: Zineddine Bettouche and Andreas Fischer
- Abstract要約: 我々はこの概念を地域出版データベースの調査に用いている。
研究論文は、科学的トピックのランドスケープビューを形成するためにエンコードされ、クラスタ化されている。
同様のトピックに取り組んでいる著者は、論文間の類似性を計算することで特定することができる。
- 参考スコア(独自算出の注目度): 0.6367279911825442
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Modern performance on several natural language processing (NLP) tasks has
been enhanced thanks to the Transformer-based pre-trained language model BERT.
We employ this concept to investigate a local publication database. Research
papers are encoded and clustered to form a landscape view of the scientific
topics, in which research is active. Authors working on similar topics can be
identified by calculating the similarity between their papers. Based on this,
we define a similarity metric between authors. Additionally we introduce the
concept of self-similarity to indicate the topical variety of authors.
- Abstract(参考訳): いくつかの自然言語処理(NLP)タスクのモダンなパフォーマンスは、Transformerベースの事前訓練言語モデルBERTのおかげで向上した。
我々はこの概念を地域出版データベースの調査に用いている。
研究論文はエンコードされ、クラスタ化され、研究が活発な科学トピックのランドスケープビューを形成する。
類似したトピックを扱う著者は、論文間の類似性を計算することで識別することができる。
これに基づいて著者間の類似度指標を定義する。
また,著者の主題的多様性を示すために,自己相似性の概念を導入する。
関連論文リスト
- Automating Bibliometric Analysis with Sentence Transformers and Retrieval-Augmented Generation (RAG): A Pilot Study in Semantic and Contextual Search for Customized Literature Characterization for High-Impact Urban Research [2.1728621449144763]
文献分析は、都市科学における研究動向、スコープ、影響を理解するために不可欠である。
キーワード検索に依存する伝統的な手法は、記事のタイトルやキーワードに明記されていない価値ある洞察を明らかにするのに失敗することが多い。
我々は、生成AIモデル、特にトランスフォーマーとレトリーバル拡張生成(RAG)を活用して、バイオロメトリ分析の自動化と強化を行う。
論文 参考訳(メタデータ) (2024-10-08T05:13:27Z) - Simbanex: Similarity-based Exploration of IEEE VIS Publications [1.9955582583198124]
本研究では,複数の埋め込みを類似性計算に用いて,バイオロメトリやサイエントメトリに適用する。
MVNを個別に埋め込み可能なアスペクトに分割することにより、類似性に基づくクラスタリングの新しい手法の入力として使用する柔軟なベクトル表現を得ることができる。
これらの前処理のステップに基づいて、我々はSimbanexというビジュアル分析アプリケーションを開発し、基礎となる出版物における類似パターンのインタラクティブなビジュアル探索を目的としている。
論文 参考訳(メタデータ) (2024-08-31T15:26:01Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Automatic Aspect Extraction from Scientific Texts [0.9208007322096533]
我々は,タスク,コントリビューション,メソッド,コンクルージョンといった側面を付加した,ロシア語の科学テキストのクロスドメインデータセットを提示する。
異なる領域のアスペクト表現にはいくつかの相違があることが示されるが、我々のモデルは限られた数の科学領域で訓練されており、新しい領域に一般化することが可能である。
論文 参考訳(メタデータ) (2023-10-06T07:59:54Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Exploring Linguistic Properties of Monolingual BERTs with Typological
Classification among Languages [2.4000693079299684]
言語間の類型的類似性を利用して、それぞれのモノリンガルモデルがどのように構造情報を符号化するかを観察する。
統語型型的類似性は中層における重みの類似性と一致している。
意味論的に等価なテキストに対するドメイン適応は、重み行列間のこの類似性を高める。
論文 参考訳(メタデータ) (2023-05-03T15:52:17Z) - Application of Transformers based methods in Electronic Medical Records:
A Systematic Literature Review [77.34726150561087]
本研究は,異なるNLPタスクにおける電子カルテ(EMR)のトランスフォーマーに基づく手法を用いて,最先端技術に関する体系的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-04-05T22:19:42Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Myers-Briggs personality classification from social media text using
pre-trained language models [0.0]
本稿では, MBTI分類を行うために, BERTモデルによる双方向表現を微調整した一連の実験について述べる。
本研究の主目的は, 単語のバッグや静的な単語の埋め込みなどに基づいて, テキスト分類モデルの性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-07-10T14:38:09Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。