論文の概要: MouseGPT: A Large-scale Vision-Language Model for Mouse Behavior Analysis
- arxiv url: http://arxiv.org/abs/2503.10212v2
- Date: Thu, 27 Mar 2025 05:38:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:48:59.919059
- Title: MouseGPT: A Large-scale Vision-Language Model for Mouse Behavior Analysis
- Title(参考訳): MouseGPT:マウス行動解析のための大規模視覚言語モデル
- Authors: Teng Xu, Taotao Zhou, Youjia Wang, Peng Yang, Simin Tang, Kuixiang Shao, Zifeng Tang, Yifei Liu, Xinyuan Chen, Hongshuang Wang, Xiaohui Wang, Huoqing Luo, Jingya Wang, Ji Hu, Jingyi Yu,
- Abstract要約: 視覚的手がかりを自然言語と統合してマウスの行動解析に革命をもたらす視覚言語モデル(VLM)であるマウスGPTを紹介する。
我々の全体分析フレームワークは、詳細な行動プロファイリング、クラスタリング、新しい行動発見を可能にし、労働を必要とせずに深い洞察を提供する。
- 参考スコア(独自算出の注目度): 33.31737496121747
- License:
- Abstract: Analyzing animal behavior is crucial in advancing neuroscience, yet quantifying and deciphering its intricate dynamics remains a significant challenge. Traditional machine vision approaches, despite their ability to detect spontaneous behaviors, fall short due to limited interpretability and reliance on manual labeling, which restricts the exploration of the full behavioral spectrum. Here, we introduce MouseGPT, a Vision-Language Model (VLM) that integrates visual cues with natural language to revolutionize mouse behavior analysis. Built upon our first-of-its-kind dataset - incorporating pose dynamics and open-vocabulary behavioral annotations across over 42 million frames of diverse psychiatric conditions - MouseGPT provides a novel, context-rich method for comprehensive behavior interpretation. Our holistic analysis framework enables detailed behavior profiling, clustering, and novel behavior discovery, offering deep insights without the need for labor - intensive manual annotation. Evaluations reveal that MouseGPT surpasses existing models in precision, adaptability, and descriptive richness, positioning it as a transformative tool for ethology and for unraveling complex behavioral dynamics in animal models.
- Abstract(参考訳): 動物行動の分析は神経科学の進歩に不可欠であるが、その複雑な力学を定量化し、解読することは重要な課題である。
従来の機械ビジョンのアプローチは、自発的な行動を検出する能力にもかかわらず、解釈可能性の制限と手動ラベリングへの依存により、完全な行動スペクトルの探索が制限されるため、不足している。
本稿では、視覚的手がかりを自然言語と統合し、マウスの行動分析に革命をもたらす視覚言語モデル(VLM)であるマウスGPTを紹介する。
ポーズのダイナミックスとオープンボキャブラリの振る舞いアノテーションを4200万フレーム以上の多様な精神状態のフレームに組み込むことによって、私たちの第一種データセットをベースとしています。
私たちの全体分析フレームワークは、詳細な行動プロファイリング、クラスタリング、新しい行動発見を可能にします。
評価の結果、マウスGPTは既存のモデルの精度、適応性、記述豊かさを超越し、動物モデルにおける複雑な行動力学の解明と倫理学の変換ツールとして位置づけられている。
関連論文リスト
- AnimalFormer: Multimodal Vision Framework for Behavior-based Precision Livestock Farming [0.0]
精密畜産のためのマルチモーダルビジョン・フレームワークを提案する。
我々は、GroundingDINO、HQSAM、ViTPoseモデルのパワーを利用する。
このスイートは、侵入的な動物タグ付けをすることなく、ビデオデータから包括的な行動分析を可能にする。
論文 参考訳(メタデータ) (2024-06-14T04:42:44Z) - A Multimodal Automated Interpretability Agent [63.8551718480664]
MAIAは、ニューラルモデルを使用して、ニューラルモデル理解タスクを自動化するシステムである。
まず、画像の学習表現における(ニューロンレベルの)特徴を記述できるMAIAの能力を特徴付ける。
次に、MAIAは、刺激的な特徴に対する感度の低下と、誤分類される可能性のある入力を自動的に識別する2つの追加の解釈可能性タスクに役立てることができることを示す。
論文 参考訳(メタデータ) (2024-04-22T17:55:11Z) - Computer Vision for Primate Behavior Analysis in the Wild [61.08941894580172]
ビデオに基づく行動監視は、動物の認知と行動を研究する方法を変える大きな可能性を秘めている。
今でも、エキサイティングな見通しと、今日実際に達成できるものの間には、かなり大きなギャップがある。
論文 参考訳(メタデータ) (2024-01-29T18:59:56Z) - Exploring Novel Object Recognition and Spontaneous Location Recognition
Machine Learning Analysis Techniques in Alzheimer's Mice [0.0]
本研究は,最先端の計算パイプラインの開発,応用,評価に重点を置いている。
このパイプラインは、初期データ収集のためのAny-Maze、詳細なポーズ推定のためのDeepLabCut、ニュアンスな行動分類のための畳み込みニューラルネットワーク(CNN)の3つの高度な計算モデルを統合する。
論文 参考訳(メタデータ) (2023-12-12T00:54:39Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - LISBET: a machine learning model for the automatic segmentation of social behavior motifs [0.0]
LISBET(LISBET Is a Social BEhavior Transformer)は,社会的相互作用の検出とセグメンテーションのための機械学習モデルである。
身体追跡データを用いた自己教師型学習により,広範囲な人的アノテーションの必要性を排除した。
生体内電気生理学的には,本モデルで同定されたモチーフに対応する腹側歯根膜領域の神経信号が明瞭であった。
論文 参考訳(メタデータ) (2023-11-07T15:35:17Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Unsupervised Behaviour Analysis and Magnification (uBAM) using Deep
Learning [5.101123537955207]
運動行動分析は、運動障害とその介入による変化を特定する非侵襲的戦略を提供する。
偏差の検出と拡大による挙動解析のための自動深層学習アルゴリズムであるuBAM(Unsupervised Behavior Analysis and magnification)について紹介する。
中心となる側面は姿勢と行動表現の教師なし学習であり、運動の客観的比較を可能にする。
論文 参考訳(メタデータ) (2020-12-16T20:07:36Z) - Muti-view Mouse Social Behaviour Recognition with Deep Graphical Model [124.26611454540813]
マウスの社会的行動分析は神経変性疾患の治療効果を評価する貴重なツールである。
マウスの社会行動の豊かな記述を創出する可能性から、ネズミの観察にマルチビュービデオ記録を使用することは、ますます注目を集めている。
本稿では,ビュー固有のサブ構造とビュー共有サブ構造を協調的に学習する,新しい多視点潜在意識・動的識別モデルを提案する。
論文 参考訳(メタデータ) (2020-11-04T18:09:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。