論文の概要: IntellectSeeker: A Personalized Literature Management System with the Probabilistic Model and Large Language Model
- arxiv url: http://arxiv.org/abs/2412.07213v1
- Date: Tue, 10 Dec 2024 06:09:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:54.264718
- Title: IntellectSeeker: A Personalized Literature Management System with the Probabilistic Model and Large Language Model
- Title(参考訳): IntellectSeeker:確率モデルと大規模言語モデルを用いた個人化文学管理システム
- Authors: Weizhen Bian, Siyan Liu, Yubo Zhou, Dezhi Chen, Yijie Liao, Zhenzhen Fan, Aobo Wang,
- Abstract要約: 我々は、革新的でパーソナライズされた学術文献管理プラットフォームであるIntellectSeekerを紹介する。
このプラットフォームは、Large Language Model (LLM)ベースのセマンティックエンハンスメントボットと洗練された確率モデルを統合し、文学検索をパーソナライズし、合理化する。
- 参考スコア(独自算出の注目度): 3.104439919958372
- License:
- Abstract: Faced with the burgeoning volume of academic literature, researchers often need help with uncertain article quality and mismatches in term searches using traditional academic engines. We introduce IntellectSeeker, an innovative and personalized intelligent academic literature management platform to address these challenges. This platform integrates a Large Language Model (LLM)--based semantic enhancement bot with a sophisticated probability model to personalize and streamline literature searches. We adopted the GPT-3.5-turbo model to transform everyday language into professional academic terms across various scenarios using multiple rounds of few-shot learning. This adaptation mainly benefits academic newcomers, effectively bridging the gap between general inquiries and academic terminology. The probabilistic model intelligently filters academic articles to align closely with the specific interests of users, which are derived from explicit needs and behavioral patterns. Moreover, IntellectSeeker incorporates an advanced recommendation system and text compression tools. These features enable intelligent article recommendations based on user interactions and present search results through concise one-line summaries and innovative word cloud visualizations, significantly enhancing research efficiency and user experience. IntellectSeeker offers academic researchers a highly customizable literature management solution with exceptional search precision and matching capabilities. The code can be found here: https://github.com/LuckyBian/ISY5001
- Abstract(参考訳): 学術文献の急増に直面している研究者は、従来の学術エンジンを用いた用語検索において、不確実な記事の品質とミスマッチを手助けする必要があることが多い。
我々は、これらの課題に対処するために、革新的でパーソナライズされたインテリジェントな学術文献管理プラットフォームであるIntellectSeekerを紹介します。
このプラットフォームは、Large Language Model (LLM)ベースのセマンティックエンハンスメントボットと洗練された確率モデルを統合し、文学検索をパーソナライズし、合理化する。
我々は、GPT-3.5-turboモデルを用いて、日常言語をプロの学術用語に変換する。
この適応は主にアカデミックな新参者から恩恵を受けており、一般的な問合せと学術用語のギャップを効果的に埋めている。
確率的モデルは学術論文をインテリジェントにフィルタリングし、明示的なニーズと行動パターンから導かれるユーザの特定の関心と密接に一致させる。
さらに、IntellectSeekerには高度なレコメンデーションシステムとテキスト圧縮ツールが組み込まれている。
これらの機能は、ユーザインタラクションに基づいたインテリジェントな記事レコメンデーションと、簡潔な一行要約と革新的な単語クラウド可視化による検索結果提示を可能にし、研究効率とユーザエクスペリエンスを大幅に向上させる。
IntellectSeekerは、優れた検索精度とマッチング機能を備えた、高度にカスタマイズ可能な文献管理ソリューションを学術研究者に提供する。
コードはここにある。 https://github.com/LuckyBian/ISY5001
関連論文リスト
- Survey on Vision-Language-Action Models [0.2636873872510828]
この研究は、オリジナルの研究を表現していないが、AIが文学レビューの自動化にどのように役立つかを強調している。
今後の研究は、AI支援文学レビューのための構造化されたフレームワークの開発に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-07T11:56:46Z) - Personalized Multimodal Large Language Models: A Survey [127.9521218125761]
マルチモーダル大言語モデル(MLLM)は、最先端の性能と複数のデータモダリティを統合する能力により、ますます重要になっている。
本稿では,パーソナライズされたマルチモーダルな大規模言語モデルに関する包括的調査を行い,そのアーキテクチャ,トレーニング方法,アプリケーションに焦点をあてる。
論文 参考訳(メタデータ) (2024-12-03T03:59:03Z) - A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - NLP-Powered Repository and Search Engine for Academic Papers: A Case Study on Cyber Risk Literature with CyLit [9.621564860645513]
自然言語処理(NLP)技術を活用した新しいフレームワークを提案する。
このフレームワークは、特定の研究領域内の学術文献の検索、要約、クラスタリングを自動化する。
我々は,サイバーリスク文献に特化して設計されたNLPベースのリポジトリであるCyLitを紹介する。
論文 参考訳(メタデータ) (2024-09-10T05:41:40Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Falcon 7b for Software Mention Detection in Scholarly Documents [7.0413463890126735]
本稿では,学術文献におけるソフトウェア言及の検出・分類におけるFalcon-7bの適用について検討する。
総合的な実験を通じて、二分法アプローチ、適応サンプリング、重み付き損失スケーリングなど、さまざまなトレーニング戦略を探求する。
この結果は,モデルの性能向上における選択的ラベリングと適応サンプリングの利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-05-14T11:37:26Z) - The Future of Scientific Publishing: Automated Article Generation [0.0]
本研究では,Python コードからの学術論文の自動生成を目的とした,大規模言語モデル(LLM)プロンプトを活用した新しいソフトウェアツールを提案する。
Pythonは基本的な概念実証として機能するが、基盤となる方法論とフレームワークは、さまざまなGitHubリポジトリにまたがる適応性を示している。
この開発は高度な言語モデルエージェントに頼らずに達成され、一貫性と総合的な学術的コンテンツの自動生成において高い忠実性を確保した。
論文 参考訳(メタデータ) (2024-04-11T16:47:02Z) - Bridging Research and Readers: A Multi-Modal Automated Academic Papers
Interpretation System [47.13932723910289]
本稿では,3段階のプロセス段階を有するオープンソースマルチモーダル自動学術論文解釈システム(MMAPIS)を紹介する。
ドキュメントからプレーンテキストや表や図を別々に抽出するために、ハイブリッドなモダリティ前処理とアライメントモジュールを使用している。
すると、この情報は彼らが属するセクション名に基づいて調整され、同じセクション名を持つデータが同じセクションの下に分類される。
抽出されたセクション名を用いて、記事を短いテキストセグメントに分割し、LSMを通してセクション内とセクション間の特定の要約を容易にする。
論文 参考訳(メタデータ) (2024-01-17T11:50:53Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。