論文の概要: Communicative Reinforcement Learning Agents for Landmark Detection in
Brain Images
- arxiv url: http://arxiv.org/abs/2008.08055v2
- Date: Sun, 27 Sep 2020 22:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 21:48:21.428506
- Title: Communicative Reinforcement Learning Agents for Landmark Detection in
Brain Images
- Title(参考訳): 脳画像におけるランドマーク検出のためのコミュニケーション強化学習エージェント
- Authors: Guy Leroy, Daniel Rueckert, and Amir Alansary
- Abstract要約: 本稿では,3次元脳画像のランドマークを自動的に検出する新しいコミュニケーティブマルチエージェント強化学習システムを提案する。
C-MARLは、すべてのエージェント間でアーキテクチャの特定の重みを共有することによって、明示的な通信チャネルや暗黙的な通信信号を学ぶことができる。
- 参考スコア(独自算出の注目度): 7.620474332606898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate detection of anatomical landmarks is an essential step in several
medical imaging tasks. We propose a novel communicative multi-agent
reinforcement learning (C-MARL) system to automatically detect landmarks in 3D
brain images. C-MARL enables the agents to learn explicit communication
channels, as well as implicit communication signals by sharing certain weights
of the architecture among all the agents. The proposed approach is evaluated on
two brain imaging datasets from adult magnetic resonance imaging (MRI) and
fetal ultrasound scans. Our experiments show that involving multiple
cooperating agents by learning their communication with each other outperforms
previous approaches using single agents.
- Abstract(参考訳): 解剖学的ランドマークの正確な検出は、いくつかの医療画像タスクにおいて重要なステップである。
本稿では,3次元脳画像のランドマークを自動的に検出する新しいコミュニケーティブマルチエージェント強化学習システムを提案する。
C-MARLは、すべてのエージェント間でアーキテクチャの特定の重みを共有することによって、明示的な通信チャネルや暗黙的な通信信号を学ぶことができる。
提案手法は成人MRIと胎児超音波による2つの脳画像データセットを用いて評価した。
実験の結果,複数エージェントの相互通信を学習することで,複数エージェントの連携が従来の手法よりも優れていることがわかった。
関連論文リスト
- LLM4Brain: Training a Large Language Model for Brain Video Understanding [9.294352205183726]
映像刺激によって引き起こされるfMRI信号から視覚的意味情報を再構成するためのLCMに基づく手法を提案する。
我々は、適応器を備えたfMRIエンコーダに微調整技術を用いて、脳の反応を映像刺激に合わせた潜在表現に変換する。
特に,視覚的セマンティック情報と脳反応のアライメントを高めるために,自己教師付きドメイン適応手法を統合する。
論文 参考訳(メタデータ) (2024-09-26T15:57:08Z) - Autoregressive Sequence Modeling for 3D Medical Image Representation [48.706230961589924]
本稿では, 自己回帰シーケンス事前学習フレームワークを用いて, 3次元医用画像表現を学習するための先駆的手法を提案する。
我々は,空間的,コントラスト的,意味的相関に基づく様々な3次元医用画像にアプローチし,トークンシーケンス内の相互接続された視覚トークンとして扱う。
論文 参考訳(メタデータ) (2024-09-13T10:19:10Z) - Trustworthy Enhanced Multi-view Multi-modal Alzheimer's Disease Prediction with Brain-wide Imaging Transcriptomics Data [9.325994464749998]
脳の転写学は、脳が機能や過程を調節する分子機構に関する洞察を与える。
アルツハイマー病(AD)を予測するための既存のマルチモーダルな方法は、主に画像と時折遺伝データに依存しており、しばしば脳の転写学的基盤を無視している。
本稿では,広範囲な脳波と画像データを用いたAD診断のための多視点マルチモーダルグラフアテンションフレームワークTMMを提案する。
論文 参考訳(メタデータ) (2024-06-21T08:39:24Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Cross Modality 3D Navigation Using Reinforcement Learning and Neural
Style Transfer [3.0152753984876854]
本稿では,MARL(Multi-Agent Reinforcement Learning)を用いて,医用画像から3次元解剖学的ボリュームのナビゲーションを行う。
我々はニューラルスタイルトランスファーを用いて,合成CT(Computed Tomography)エージェントジム環境を作成する。
我々のフレームワークはラベル付き臨床データを一切必要とせず、複数の画像翻訳技術と容易に統合できる。
論文 参考訳(メタデータ) (2021-11-05T13:11:45Z) - Deep learning facilitates fully automated brain image registration of
optoacoustic tomography and magnetic resonance imaging [6.9975936496083495]
マルチスペクトル光音響トモグラフィ(Multi-spectral optoacoustic tomography、MSOT)は、歯状脳からの多重分子および機能情報を提供する新しい光学イメージング法である。
磁気共鳴イメージング(MRI)により、優れたソフト・コントラストと高分解能脳解剖学を提供することができる。
マルチモーダル画像の登録は、主にこれらのモダリティによって描画される全く異なる画像コントラストのために、依然として困難である。
本稿では,深層学習によるMSOT-MRIマルチモーダル画像の完全自動登録手法を提案する。
論文 参考訳(メタデータ) (2021-09-04T14:50:44Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - A Visual Communication Map for Multi-Agent Deep Reinforcement Learning [7.003240657279981]
マルチエージェント学習は、隠蔽された通信媒体を割り当てる上で大きな課題となる。
最近の研究は一般的に、エージェント間の通信を可能にするために、特殊なニューラルネットワークと強化学習を組み合わせる。
本稿では,多数のエージェントを扱うだけでなく,異種機能エージェント間の協調を可能にする,よりスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T02:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。