論文の概要: FathomGPT: A Natural Language Interface for Interactively Exploring Ocean Science Data
- arxiv url: http://arxiv.org/abs/2412.02784v1
- Date: Tue, 03 Dec 2024 19:22:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:23.059702
- Title: FathomGPT: A Natural Language Interface for Interactively Exploring Ocean Science Data
- Title(参考訳): FathomGPT - 海洋科学データを対話的に探索する自然言語インタフェース
- Authors: Nabin Khanal, Chun Meng Yu, Jui-Cheng Chiu, Anav Chaudhary, Ziyue Zhang, Kakani Katija, Angus G. Forbes,
- Abstract要約: 本稿では,自然言語インタフェースによる海洋科学データのインタラクティブな調査を行うオープンソースシステムであるFathomGPTを紹介する。
FathomGPTは、FathomNetイメージデータベースの探索と解析を可能にするために、海洋科学者と緊密に協力して開発された。
- 参考スコア(独自算出の注目度): 4.886482666592149
- License:
- Abstract: We introduce FathomGPT, an open source system for the interactive investigation of ocean science data via a natural language interface. FathomGPT was developed in close collaboration with marine scientists to enable researchers to explore and analyze the FathomNet image database. FathomGPT provides a custom information retrieval pipeline that leverages OpenAI's large language models to enable: the creation of complex queries to retrieve images, taxonomic information, and scientific measurements; mapping common names and morphological features to scientific names; generating interactive charts on demand; and searching by image or specified patterns within an image. In designing FathomGPT, particular emphasis was placed on enhancing the user's experience by facilitating free-form exploration and optimizing response times. We present an architectural overview and implementation details of FathomGPT, along with a series of ablation studies that demonstrate the effectiveness of our approach to name resolution, fine tuning, and prompt modification. We also present usage scenarios of interactive data exploration sessions and document feedback from ocean scientists and machine learning experts.
- Abstract(参考訳): 本稿では,自然言語インタフェースによる海洋科学データのインタラクティブな調査を行うオープンソースシステムであるFathomGPTを紹介する。
FathomGPTは、FathomNetイメージデータベースの探索と解析を可能にするために、海洋科学者と緊密に協力して開発された。
FathomGPTは、OpenAIの大規模言語モデルを活用するカスタム情報検索パイプラインを提供する。画像、分類情報、科学的測定のための複雑なクエリの作成、一般的な名前と形態的特徴を科学的名前にマッピングする、オンデマンドでインタラクティブなチャートを生成する、イメージ内のイメージまたは特定のパターンを検索する。
FathomGPTの設計において、フリーフォーム探索と応答時間の最適化を円滑にすることで、ユーザエクスペリエンスの向上に特に重点が置かれた。
本稿では、ファトムGPTのアーキテクチャ概要と実装の詳細と、名前解決、微調整、即時修正へのアプローチの有効性を示す一連のアブレーション研究を紹介する。
また、インタラクティブなデータ探索セッションの利用シナリオや、海洋科学者や機械学習の専門家からのドキュメントフィードバックについても紹介する。
関連論文リスト
- A Scalable System for Visual Analysis of Ocean Data [3.2195554805277435]
pyParaOceanは、海洋データ分析に特化したスケーラブルでインタラクティブな可視化システムである。
pyParaOceanは、一般的な海洋分析タスクのための特殊なモジュールを提供する。
本稿では,ベンガル湾を事例として,システムの有効性を実証し,システムの効率性を評価するためのスケールスタディを提案する。
論文 参考訳(メタデータ) (2025-01-09T07:11:51Z) - Map2Text: New Content Generation from Low-Dimensional Visualizations [60.02149343347818]
低次元の可視化における空間座標を新しい、一貫性のある、正確に整列されたテキストコンテンツに変換する新しいタスクであるMap2Textを紹介する。
これによってユーザは、これらの空間的レイアウトに埋め込まれた未発見情報を対話的に、直感的に探索し、ナビゲートすることができる。
論文 参考訳(メタデータ) (2024-12-24T20:16:13Z) - Swarm Intelligence in Geo-Localization: A Multi-Agent Large Vision-Language Model Collaborative Framework [51.26566634946208]
smileGeoは、新しい視覚的ジオローカライゼーションフレームワークである。
エージェント間のコミュニケーションによって、SmithGeoはこれらのエージェントの固有の知識と、検索された情報を統合する。
その結果,本手法は現在の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-21T03:31:30Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - The Ontoverse: Democratising Access to Knowledge Graph-based Data Through a Cartographic Interface [33.861478826378054]
我々は地理的視覚化と階層的に構造化されたドメイン知識に依存したデータナビゲーションにユニークなアプローチを開発した。
提案手法は自然言語処理技術を用いて,基礎となるデータから名前付きエンティティを抽出し,関連する意味領域参照やナビゲーション構造に対して正規化する。
これにより、エンドユーザは、ニーズに関連するエンティティを識別し、広範なグラフ分析にアクセスできるようになる。
論文 参考訳(メタデータ) (2024-07-22T10:29:25Z) - Towards Vision-Language Geo-Foundation Model: A Survey [65.70547895998541]
Vision-Language Foundation Models (VLFMs) は、様々なマルチモーダルタスクにおいて顕著な進歩を遂げている。
本稿では, VLGFMを網羅的にレビューし, この分野の最近の展開を要約し, 分析する。
論文 参考訳(メタデータ) (2024-06-13T17:57:30Z) - SciMMIR: Benchmarking Scientific Multi-modal Information Retrieval [64.03631654052445]
科学領域内の画像テキストペアリングにおけるMMIR性能を評価するための最新のベンチマークは、顕著なギャップを示している。
オープンアクセス用紙コレクションを利用した特殊な科学的MMIRベンチマークを開発する。
このベンチマークは、科学的文書に詳細なキャプションのある数字や表から抽出された、530Kの精巧にキュレートされた画像テキストペアからなる。
論文 参考訳(メタデータ) (2024-01-24T14:23:12Z) - From Data to Dialogue: Leveraging the Structure of Knowledge Graphs for
Conversational Exploratory Search [4.861125297881693]
本稿では,自然言語質問によるニュース記事探索のための知識駆動対話システムを提案する。
54名の被験者を対象に,グラフに基づく探索探索の有効性を実証的に評価した。
論文 参考訳(メタデータ) (2023-10-08T12:52:09Z) - Multimodal Deep Learning for Scientific Imaging Interpretation [0.0]
本研究では,SEM(Scanning Electron Microscopy)画像と人間のような相互作用を言語的にエミュレートし,評価するための新しい手法を提案する。
本稿では,ピアレビュー記事から収集したテキストデータとビジュアルデータの両方から洞察を抽出する。
我々のモデル (GlassLLaVA) は, 正確な解釈, 重要な特徴の同定, 未確認のSEM画像の欠陥の検出に優れる。
論文 参考訳(メタデータ) (2023-09-21T20:09:22Z) - DLSIA: Deep Learning for Scientific Image Analysis [45.81637398863868]
DLSIAはPythonベースの機械学習ライブラリで、さまざまな科学的領域にまたがって、さまざまなカスタマイズ可能な畳み込みニューラルネットワーク(CNN)アーキテクチャを持つ科学者や研究者に権限を与える。
DLSIAは、オートエンコーダ、チューニング可能なU-Net、パラメータリーン混合スケールネットワーク(MSDNets)などの使いやすいアーキテクチャを備えている。
論文 参考訳(メタデータ) (2023-08-02T21:32:41Z) - Explaining Patterns in Data with Language Models via Interpretable
Autoprompting [143.4162028260874]
本稿では,データを説明する自然言語文字列を生成するアルゴリズムである,解釈可能なオートプロンプト(iPrompt)を提案する。
iPromptは、基盤となるデータセット記述を正確に見つけることで、意味のある洞察を得ることができる。
fMRIデータセットを用いた実験は、iPromptが科学的発見に役立つ可能性を示している。
論文 参考訳(メタデータ) (2022-10-04T18:32:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。