論文の概要: Harnessing PubMed User Query Logs for Post Hoc Explanations of
Recommended Similar Articles
- arxiv url: http://arxiv.org/abs/2402.03484v1
- Date: Mon, 5 Feb 2024 19:56:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 17:59:34.213619
- Title: Harnessing PubMed User Query Logs for Post Hoc Explanations of
Recommended Similar Articles
- Title(参考訳): pubmedユーザクエリログを活用した推奨類似記事のポストホック説明
- Authors: Ashley Shin, Qiao Jin, James Anibal, Zhiyong Lu
- Abstract要約: PubMedのユーザクエリログから560万のコクリックされた記事を再利用してPubCLogsを構築します。
PubCLogsデータセットを使用して、類似記事のタイトルの最も関連性の高い部分を選択するために設計されたモデルであるHighlight similar Article Title(HSAT)をトレーニングします。
HSATは経験的評価において高い性能を示し、PubCLogsテストセットでF1スコアが91.72パーセントに達した。
- 参考スコア(独自算出の注目度): 5.306261813981977
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Searching for a related article based on a reference article is an integral
part of scientific research. PubMed, like many academic search engines, has a
"similar articles" feature that recommends articles relevant to the current
article viewed by a user. Explaining recommended items can be of great utility
to users, particularly in the literature search process. With more than a
million biomedical papers being published each year, explaining the recommended
similar articles would facilitate researchers and clinicians in searching for
related articles. Nonetheless, the majority of current literature
recommendation systems lack explanations for their suggestions. We employ a
post hoc approach to explaining recommendations by identifying relevant tokens
in the titles of similar articles. Our major contribution is building PubCLogs
by repurposing 5.6 million pairs of coclicked articles from PubMed's user query
logs. Using our PubCLogs dataset, we train the Highlight Similar Article Title
(HSAT), a transformer-based model designed to select the most relevant parts of
the title of a similar article, based on the title and abstract of a seed
article. HSAT demonstrates strong performance in our empirical evaluations,
achieving an F1 score of 91.72 percent on the PubCLogs test set, considerably
outperforming several baselines including BM25 (70.62), MPNet (67.11), MedCPT
(62.22), GPT-3.5 (46.00), and GPT-4 (64.89). Additional evaluations on a
separate, manually annotated test set further verifies HSAT's performance.
Moreover, participants of our user study indicate a preference for HSAT, due to
its superior balance between conciseness and comprehensiveness. Our study
suggests that repurposing user query logs of academic search engines can be a
promising way to train state-of-the-art models for explaining literature
recommendation.
- Abstract(参考訳): 参考記事に基づく関連記事の検索は、科学研究の不可欠な部分である。
pubmedは、多くの学術検索エンジンと同様に、ユーザーが見る現在の記事に関連する記事を推奨する「類似記事」機能を備えている。
推奨項目の説明は,特に文献検索プロセスにおいて,ユーザにとって非常に有用である。
毎年100万以上の生物医学論文が発行されており、推奨される類似記事の説明は、研究者や臨床医が関連記事を探すのに役立つだろう。
しかし、現在の文献推薦制度の大半は、その提案についての説明を欠いている。
類似記事のタイトルで関連するトークンを識別することで推奨を説明するため,ポストホックなアプローチを採用している。
私たちの主な貢献はPubMedのユーザクエリログから560万のコクリックされた記事を再利用することでPubCLogsを構築することです。
PubCLogsデータセットを使用して、シード記事のタイトルと抽象化に基づいて、類似記事のタイトルの最も関連性の高い部分を選択するために設計されたトランスフォーマーベースのモデルであるHighlight similar Article Title(HSAT)をトレーニングする。
HSATは、実験的な評価において強いパフォーマンスを示し、PubCLogsテストセットでF1スコア91.72パーセントを獲得し、BM25 (70.62)、MPNet (67.11)、MedCPT (62.22)、GPT-3.5 (46.00)、GPT-4 (64.89)など、いくつかのベースラインをかなり上回った。
別個の手動アノテートテストセットに関する追加評価は、HSATのパフォーマンスをさらに検証する。
さらに,本研究の参加者は,簡潔さと包括性とのバランスが優れているため,HSATを好んでいる。
本研究は,学術検索エンジンのユーザ問合せログの再利用が,文献レコメンデーションを説明するための最先端モデルをトレーニングするための有望な方法であることを示唆している。
関連論文リスト
- Analysis of the ICML 2023 Ranking Data: Can Authors' Opinions of Their Own Papers Assist Peer Review in Machine Learning? [52.00419656272129]
我々は2023年の国際機械学習会議(ICML)で実験を行った。
我々はそれぞれ2,592件の応募書を含む1,342件のランク付けを受けた。
著者によるランキングを用いて生のレビュースコアを校正するイソトニックメカニズムに注目した。
論文 参考訳(メタデータ) (2024-08-24T01:51:23Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Generating Natural Language Queries for More Effective Systematic Review
Screening Prioritisation [53.77226503675752]
現在の技術状況では、レビューの最終タイトルをクエリとして、BERTベースのニューラルランクラを使用してドキュメントのランク付けに使用しています。
本稿では,ChatGPT や Alpaca などの命令ベース大規模言語モデルによって生成される文書の検索に使用される Boolean クエリやクエリなど,スクリーニングを優先するクエリの代替源について検討する。
私たちのベストアプローチは、スクリーニング時に利用可能な情報に基づいて実現されるだけでなく、最終タイトルと同じような効果があります。
論文 参考訳(メタデータ) (2023-09-11T05:12:14Z) - DiscoverPath: A Knowledge Refinement and Retrieval System for
Interdisciplinarity on Biomedical Research [96.10765714077208]
従来のキーワードベースの検索エンジンは、特定の用語に慣れていないユーザーを支援するのに不足している。
本稿では, バイオメディカル研究のための知識グラフに基づく紙検索エンジンを提案し, ユーザエクスペリエンスの向上を図る。
DiscoverPathと呼ばれるこのシステムは、名前付きエンティティ認識(NER)とPOSタグを使って、記事の要約から用語や関係を抽出し、KGを作成する。
論文 参考訳(メタデータ) (2023-09-04T20:52:33Z) - MIReAD: Simple Method for Learning High-quality Representations from
Scientific Documents [77.34726150561087]
論文の高品質な表現を学習する簡単な方法であるMIREADを提案する。
私たちは、2000以上のジャーナルクラスで50万以上のPubMedとarXivの抽象クラスでMIREADをトレーニングします。
論文 参考訳(メタデータ) (2023-05-07T03:29:55Z) - Artificial intelligence technologies to support research assessment: A
review [10.203602318836444]
この文献レビューは、記事のテキストから、より高いインパクトやより高い品質の研究に関連する指標を特定する。
論文やカンファレンス論文の引用数や品質スコアを予測するために機械学習技術を使用した研究が含まれている。
論文 参考訳(メタデータ) (2022-12-11T06:58:39Z) - Tag-Aware Document Representation for Research Paper Recommendation [68.8204255655161]
本稿では,ユーザによって割り当てられたソーシャルタグに基づいて,研究論文の深い意味表現を活用するハイブリッドアプローチを提案する。
提案手法は,評価データが極めて少ない場合でも研究論文の推薦に有効である。
論文 参考訳(メタデータ) (2022-09-08T09:13:07Z) - Pattern-based Acquisition of Scientific Entities from Scholarly Article
Titles [0.0]
本稿では,学術論文のタイトルから科学的実体を自動的に取得するためのルールベースのアプローチについて述べる。
我々は容易に認識可能なレキシコシンタクティックパターンの集合を同定する。
取得アルゴリズムのサブセットは、計算言語学(CL)学術領域の論文タイトルに対して実装される。
論文 参考訳(メタデータ) (2021-09-01T05:59:06Z) - Learning Fine-grained Fact-Article Correspondence in Legal Cases [19.606628325747938]
我々は,手作業によるファクト・パーティクル対応を用いたコーパスを作成する。
我々はランダムフォレストと前提決定対の形で記事を解析する。
我々の最良のシステムは96.3%のF1スコアに達し、実用上大きな可能性を秘めている。
論文 参考訳(メタデータ) (2021-04-21T19:06:58Z) - Ontology-Based Recommendation of Editorial Products [7.1717344176500335]
Smart Book Recommender (SBR)はSpringer NatureのComputer Science編集チームをサポートし、特定の場所で商品を市場に出す。
SBRは、約27Kの編集製品の意味的に強化された表現を利用して、会議に関連する書籍、ジャーナル、会議の手続を推奨します。
sbrはまた、ユーザがなぜ特定の出版物がシステムによって提案されたのかを調査できる。
論文 参考訳(メタデータ) (2021-03-24T23:23:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。