論文の概要: MedViz: An Agent-based, Visual-guided Research Assistant for Navigating Biomedical Literature
- arxiv url: http://arxiv.org/abs/2601.20709v1
- Date: Wed, 28 Jan 2026 15:41:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:07.004246
- Title: MedViz: An Agent-based, Visual-guided Research Assistant for Navigating Biomedical Literature
- Title(参考訳): MedViz: バイオメディカル文学をナビゲートするためのエージェントベースの視覚誘導研究アシスタント
- Authors: Huan He, Xueqing Peng, Yutong Xie, Qijia Liu, Chia-Hsuan Chang, Lingfei Qian, Brian Ondov, Qiaozhu Mei, Hua Xu,
- Abstract要約: MedVizは、複数のAIエージェントとインタラクティブな可視化を統合するビジュアル分析システムである。
インタラクティブな視覚化でインテリジェントなエージェントをブリッジすることで、MedVizはバイオメディカル文献検索を動的で探索的なプロセスに変換する。
- 参考スコア(独自算出の注目度): 17.924933931701627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biomedical researchers face increasing challenges in navigating millions of publications in diverse domains. Traditional search engines typically return articles as ranked text lists, offering little support for global exploration or in-depth analysis. Although recent advances in generative AI and large language models have shown promise in tasks such as summarization, extraction, and question answering, their dialog-based implementations are poorly integrated with literature search workflows. To address this gap, we introduce MedViz, a visual analytics system that integrates multiple AI agents with interactive visualization to support the exploration of the large-scale biomedical literature. MedViz combines a semantic map of millions of articles with agent-driven functions for querying, summarizing, and hypothesis generation, allowing researchers to iteratively refine questions, identify trends, and uncover hidden connections. By bridging intelligent agents with interactive visualization, MedViz transforms biomedical literature search into a dynamic, exploratory process that accelerates knowledge discovery.
- Abstract(参考訳): 生物医学研究者は、多様な領域で何百万もの出版物をナビゲートする上で、ますます困難に直面している。
従来の検索エンジンは、記事をランク付けされたテキストリストとして返却し、グローバルな探索や詳細な分析をほとんどサポートしない。
生成AIや大規模言語モデルの最近の進歩は、要約、抽出、質問応答といったタスクにおいて有望であることを示しているが、それらのダイアログベースの実装は、文学的な検索ワークフローと十分に統合されていない。
このギャップに対処するために、大規模生物医学文献の探索を支援するために、複数のAIエージェントとインタラクティブな可視化を統合した視覚分析システムMedVizを紹介する。
MedVizは、何百万もの記事のセマンティックマップと、クエリ、要約、仮説生成のためのエージェント駆動の関数を組み合わせることで、研究者が質問を反復的に洗練し、傾向を特定し、隠れたつながりを明らかにすることができる。
インタラクティブな可視化でインテリジェントなエージェントをブリッジすることで、MedVizはバイオメディカル文献検索を、知識発見を加速する動的で探索的なプロセスに変換する。
関連論文リスト
- OpenLens AI: Fully Autonomous Research Agent for Health Infomatics [22.16210485266852]
OpenLens AIは、健康情報学に適した完全に自動化されたフレームワークである。
文献レビュー、データ分析、コード生成、原稿作成のための特殊エージェントを統合している。
このフレームワークは研究パイプライン全体を自動化し、出版可能な原稿を生成する。
論文 参考訳(メタデータ) (2025-09-18T09:25:57Z) - Biomedical Literature Q&A System Using Retrieval-Augmented Generation (RAG) [0.0]
本報告では, バイオメディカル文献質問応答システム(Q&A)について述べる。
このシステムは、PubMedの記事、キュレートされたQ&Aデータセット、医療百科事典など、さまざまなソースを統合している。
このシステムは一般の医療クエリとドメイン固有のタスクの両方をサポートし、乳がんの文献に焦点を絞った評価を行う。
論文 参考訳(メタデータ) (2025-09-05T21:29:52Z) - From Web Search towards Agentic Deep Research: Incentivizing Search with Reasoning Agents [96.65646344634524]
推論とエージェント能力を備えた大規模言語モデル(LLM)は、エージェントディープリサーチ(Agenic Deep Research)と呼ばれる新しいパラダイムを取り入れている。
静的なWeb検索から,計画,探索,学習を行う対話型エージェントベースのシステムへの進化を辿ります。
我々はエージェントディープリサーチが既存のアプローチを著しく上回るだけでなく、将来の情報探索において支配的なパラダイムになることを実証する。
論文 参考訳(メタデータ) (2025-06-23T17:27:19Z) - Advancing AI Research Assistants with Expert-Involved Learning [84.30323604785646]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、生物医学的な発見を促進することを約束するが、その信頼性は未定である。
ARIEL(AI Research Assistant for Expert-in-the-Loop Learning)は,オープンソースの評価・最適化フレームワークである。
LMMは詳細な視覚的推論に苦しむのに対し、最先端のモデルでは流動性はあるが不完全な要約を生成する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - A Large-Scale Vision-Language Dataset Derived from Open Scientific Literature to Advance Biomedical Generalist AI [70.06771291117965]
PubMed Central Open Accessサブセットから派生したオープンソースのデータセットであるBiomedicaを紹介する。
Biomedicaには600万以上の科学論文と2400万の画像テキストペアが含まれている。
私たちは、Webサーバを通じてスケーラブルなストリーミングと検索APIを提供し、AIシステムとのシームレスな統合を容易にします。
論文 参考訳(メタデータ) (2025-03-26T05:56:46Z) - Intent Detection and Entity Extraction from BioMedical Literature [14.52164637112797]
言語モデル(LLM)は、汎用知性を達成するための努力によって動機付けられ、タスクやドメイン固有の自然言語理解アプローチを置き換える効果は疑問視されている。
スーパーバイザード・ファイン・チューン(Supervised Fine Tuned)アプローチは, 汎用LLMよりも有用であり, 有効であることを示す。
論文 参考訳(メタデータ) (2024-04-04T17:09:52Z) - LLaVA-Med: Training a Large Language-and-Vision Assistant for
Biomedicine in One Day [85.19963303642427]
本稿では,バイオメディカルイメージのオープンな研究課題に答えられる視覚言語対話アシスタントを訓練するための費用効率のよいアプローチを提案する。
モデルはまず、フィギュア・キャプションのペアを使ってバイオメディカル・ボキャブラリをアライメントし、その後、オープンエンドの会話意味論を習得する。
これにより、バイオメディジンのための大規模言語と視覚アシスタントを15時間以内で(8つのA100で)訓練することができる。
論文 参考訳(メタデータ) (2023-06-01T16:50:07Z) - A New Neural Search and Insights Platform for Navigating and Organizing
AI Research [56.65232007953311]
我々は、古典的なキーワード検索とニューラル検索を組み合わせた新しいプラットフォームであるAI Research Navigatorを導入し、関連する文献を発見し整理する。
本稿では,システム全体のアーキテクチャの概要と,文書分析,質問応答,検索,分析,専門家検索,レコメンデーションの構成要素について概説する。
論文 参考訳(メタデータ) (2020-10-30T19:12:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。