論文の概要: Finder: A Multimodal AI-Powered Search Framework for Pharmaceutical Data Retrieval
- arxiv url: http://arxiv.org/abs/2603.15623v1
- Date: Tue, 06 Jan 2026 06:16:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.322817
- Title: Finder: A Multimodal AI-Powered Search Framework for Pharmaceutical Data Retrieval
- Title(参考訳): Finder: 医薬品データ検索のためのマルチモーダルAIベースの検索フレームワーク
- Authors: Suyash Mishra, Srikanth Patil, Satyanarayan Pati, Sagar Sahu, Baddu Narendra,
- Abstract要約: FinderはスケーラブルなAIベースのフレームワークで、テキスト、画像、オーディオ、ビデオの検索を統一する。
そのモジュールパイプラインは、さまざまなフォーマットを取り込み、メタデータを強化し、コンテンツをベクタネイティブなバックエンドに格納する。
98言語で291,400以上のドキュメント、31,070の動画、1,192のオーディオファイルを処理している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: AI is transforming pharmaceutical search, where traditional systems struggle with multimodal content and manual curation. Finder is a scalable AI-powered framework that unifies retrieval across text, images, audio, and video using hybrid vector search, combining sparse lexical and dense semantic models. Its modular pipeline ingests diverse formats, enriches metadata, and stores content in a vector-native backend. Finder supports reasoning-aware natural language search, improving precision and contextual relevance. The system has processed over 291,400 documents, 31,070 videos, and 1,192 audio files in 98 languages. Techniques like hybrid fusion, chunking, and metadata-aware routing enable intelligent access across regulatory, research, and commercial domains.
- Abstract(参考訳): AIは、従来のシステムがマルチモーダルコンテンツと手作業によるキュレーションに苦しむ薬品検索を変革しようとしている。
FinderはスケーラブルなAIベースのフレームワークで、テキスト、画像、オーディオ、ビデオ間の検索をハイブリッドベクターサーチを使用して統一し、疎語彙と密接なセマンティックモデルを組み合わせる。
そのモジュールパイプラインは、さまざまなフォーマットを取り込み、メタデータを強化し、コンテンツをベクタネイティブなバックエンドに格納する。
Finderは推論対応自然言語検索をサポートし、精度と文脈関連性を改善している。
このシステムは98言語で291,400以上のドキュメント、31,070の動画、1,192のオーディオファイルを処理している。
ハイブリッドフュージョン、チャンキング、メタデータ対応ルーティングのような技術は、規制、研究、商業ドメイン間のインテリジェントなアクセスを可能にする。
関連論文リスト
- LLandMark: A Multi-Agent Framework for Landmark-Aware Multimodal Interactive Video Retrieval [0.0]
LLandMarkはランドマーク対応のマルチモーダルビデオ検索のためのモジュラーフレームワークである。
このフレームワークは、クエリ解析と計画、ランドマーク推論、マルチモーダル検索、再帰的な回答合成の4つのステージで協力する特殊エージェントを備えている。
ランドマーク知識エージェント(Landmark Knowledge Agent)は、文化的または空間的なランドマークを検出し、それらを説明的な視覚的プロンプトに再構成し、ベトナムのシーンに対するCLIPベースのセマンティックマッチングを強化する。
論文 参考訳(メタデータ) (2026-03-03T11:36:34Z) - WISE: A Multimodal Search Engine for Visual Scenes, Audio, Objects, Faces, Speech, and Metadata [41.04817565873235]
本稿では,オープンソースのオーディオヴィジュアル検索エンジンWISEを紹介する。
WISEは自然言語およびリバースイメージクエリをサポートする。
何百万もの画像や何千時間ものビデオを効率よく検索できる。
論文 参考訳(メタデータ) (2026-02-13T11:03:06Z) - NeuCLIRTech: Chinese Monolingual and Cross-Language Information Retrieval Evaluation in a Challenging Domain [49.3943974580576]
本稿では,技術情報に対するクロスランゲージ検索のための評価収集であるNeuCLIRTechについて述べる。
このコレクションは中国語で書かれた技術文書と、その機械が英語に翻訳されたもので構成されている。
このコレクションは中国語での単言語検索と、クエリ言語としての英語による言語横断検索という2つの検索シナリオをサポートしている。
論文 参考訳(メタデータ) (2026-02-05T05:57:55Z) - V-Agent: An Interactive Video Search System Using Vision-Language Models [5.245473886566199]
V-Agentは、高度なビデオ検索と対話型ユーザシステム会話のために設計された、新しいマルチエージェントプラットフォームである。
提案フレームワークは,MultiVENT 2.0ベンチマークで最先端のゼロショット性能を示す。
論文 参考訳(メタデータ) (2025-11-04T07:24:45Z) - DeepMMSearch-R1: Empowering Multimodal LLMs in Multimodal Web Search [61.77858432092777]
DeepMMSearch-R1は,オンデマンドでマルチターンWeb検索が可能な,最初のマルチモーダルな大規模言語モデルである。
DeepMMSearch-R1は、画像検索をより効果的にするために、入力画像の関連する作物に基づいてWeb検索を開始することができる。
我々は、アプローチの優位性を実証するために、知識集約型ベンチマークを幅広く実施する。
論文 参考訳(メタデータ) (2025-10-14T17:59:58Z) - Vector embedding of multi-modal texts: a tool for discovery? [0.45880283710344055]
本研究では,ベクトルベースのマルチモーダル検索が,マルチモーダル(テキストと画像)コンテンツ間の発見をいかに改善できるかを検討する。
我々はコンピュータサイエンス教科書と視覚言語モデル(VLM)を中心に,3600以上のデジタル化された教科書ページを使用している。
本稿では,75の自然言語クエリのベンチマークを発行し,検索性能を4つの類似性(距離)尺度で比較する。
論文 参考訳(メタデータ) (2025-09-10T01:14:48Z) - Tevatron 2.0: Unified Document Retrieval Toolkit across Scale, Language, and Modality [74.59049806800176]
このデモペーパーでは、Tevatronツールキットの重要な特徴、学界と産業の橋渡しについて取り上げている。
強い多言語・多モーダルな有効性を実現するための密集型検索器について紹介する。
私たちはOmniEmbedもリリースしています。私たちの知る限り、テキスト、画像ドキュメント、ビデオ、オーディオ検索を統一する最初の埋め込みモデルです。
論文 参考訳(メタデータ) (2025-05-05T08:52:49Z) - MultiVENT 2.0: A Massive Multilingual Benchmark for Event-Centric Video Retrieval [57.891157692501345]
$textbfMultiVENT 2.0$は、大規模かつ多言語なイベント中心のビデオ検索ベンチマークである。
218,000以上のニュースビデオと、特定の世界イベントを対象とした3,906のクエリが提供されている。
予備的な結果は、最先端のビジョン言語モデルは、この課題にかなり苦労していることを示している。
論文 参考訳(メタデータ) (2024-10-15T13:56:34Z) - Leveraging Large Language Models for Multimodal Search [0.6249768559720121]
本稿では,Fashion200Kデータセット上での新たなパフォーマンスマイルストーンを実現する,新しいマルチモーダル検索モデルを提案する。
また,Large Language Models (LLM) を統合した新たな検索インタフェースを提案する。
論文 参考訳(メタデータ) (2024-04-24T10:30:42Z) - A New Neural Search and Insights Platform for Navigating and Organizing
AI Research [56.65232007953311]
我々は、古典的なキーワード検索とニューラル検索を組み合わせた新しいプラットフォームであるAI Research Navigatorを導入し、関連する文献を発見し整理する。
本稿では,システム全体のアーキテクチャの概要と,文書分析,質問応答,検索,分析,専門家検索,レコメンデーションの構成要素について概説する。
論文 参考訳(メタデータ) (2020-10-30T19:12:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。