論文の概要: Training Data Governance for Brain Foundation Models
- arxiv url: http://arxiv.org/abs/2602.02511v1
- Date: Fri, 23 Jan 2026 02:15:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.418443
- Title: Training Data Governance for Brain Foundation Models
- Title(参考訳): 脳基礎モデルのためのデータガバナンスのトレーニング
- Authors: Margot Hanley, Jiunn-Tyng Yeh, Ryan Rodriguez, Jack Pilkington, Nita Farahany,
- Abstract要約: 本稿では,ニューラルデータに基づく基礎学習モデルが新たな規範領域を開くことを主張する。
まず、脳基礎モデルの技術的基盤とトレーニングデータエコシステムについて説明する。
そして、プライバシ、同意、偏見、利益共有、ガバナンスに関する懸念を整理するために、AI倫理、神経倫理、生物倫理を描きます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brain foundation models bring the foundation model paradigm to the field of neuroscience. Like language and image foundation models, they are general-purpose AI systems pretrained on large-scale datasets that adapt readily to downstream tasks. Unlike text-and-image based models, however, they train on brain data: large-datasets of EEG, fMRI, and other neural data types historically collected within tightly governed clinical and research settings. This paper contends that training foundation models on neural data opens new normative territory. Neural data carry stronger expectations of, and claims to, protection than text or images, given their body-derived nature and historical governance within clinical and research settings. Yet the foundation model paradigm subjects them to practices of large-scale repurposing, cross-context stitching, and open-ended downstream application. Furthermore, these practices are now accessible to a much broader range of actors, including commercial developers, against a backdrop of fragmented and unclear governance. To map this territory, we first describe brain foundation models' technical foundations and training-data ecosystem. We then draw on AI ethics, neuroethics, and bioethics to organize concerns across privacy, consent, bias, benefit sharing, and governance. For each, we propose both agenda-setting questions and baseline safeguards as the field matures.
- Abstract(参考訳): 脳基礎モデルは、基礎モデルパラダイムを神経科学の分野に持ち込む。
言語やイメージファウンデーションモデルと同様に、それらはダウンストリームタスクに容易に適応する大規模なデータセットで事前訓練された汎用AIシステムである。
しかし、テキストと画像ベースのモデルとは異なり、彼らは脳データに基づいてトレーニングする。脳波、fMRI、その他のニューラルネットワークの大規模なデータセットは、歴史的に厳格に管理された臨床および研究設定内で収集された。
本稿では,ニューラルデータに基づく基礎学習モデルが新たな規範領域を開くことを主張する。
ニューラルデータには、身体固有の性質と臨床および研究環境における歴史的統治が考慮され、テキストや画像よりも保護が強く期待され、主張されている。
しかし、ファンデーションモデルパラダイムは、それらを大規模なリパース、クロスコンテキストのステッチ、そしてオープンな下流アプリケーションというプラクティスに従わせている。
さらに、これらのプラクティスは、断片的で不明瞭なガバナンスを背景に、商用開発者を含む、より広い範囲のアクターにアクセスできるようになりました。
この領域をマッピングするために、まず脳基礎モデルの技術的基盤とトレーニングデータエコシステムについて説明する。
そして、プライバシ、同意、偏見、利益共有、ガバナンスに関する懸念を整理するために、AI倫理、神経倫理、生物倫理を描きます。
本研究は,各分野が成熟するにつれて,アジェンダ設定問題とベースラインセーフガードの両方を提案する。
関連論文リスト
- A New Strategy for Artificial Intelligence: Training Foundation Models Directly on Human Brain Data [0.0]
我々は、人間の脳データを直接ベースとした基礎モデルをトレーニングすることで、表面レベルの統計正規性を超えて、人工知能の新しい戦略を探求する。
本稿では、基礎モデルの現在の限界と、それに対応するために活用できる有望な脳領域と認知過程を分類する。
また,エージェント,汎用知能,人工超知能,倫理的,社会的,技術的課題や機会といった可能性についても論じる。
論文 参考訳(メタデータ) (2026-01-17T13:38:51Z) - A Survey on Generative Recommendation: Data, Model, and Tasks [55.36322811257545]
ジェネレーティブ・レコメンデーションは、差別的なスコアではなく、世代としてのレコメンデーションを再認識する。
この調査は、データ、モデル、タスク次元にまたがる統合された三部構成のフレームワークを通じて包括的な調査を提供する。
世界知識の統合、自然言語理解、推論能力、スケーリング法則、創造的生成の5つの主要な利点を特定します。
論文 参考訳(メタデータ) (2025-10-31T04:02:58Z) - Biomedical Foundation Model: A Survey [84.26268124754792]
ファンデーションモデルは、広範なラベルなしデータセットから学習する大規模な事前訓練モデルである。
これらのモデルは、質問応答や視覚的理解といった様々な応用に適応することができる。
本研究は,生物医学分野における基礎モデルの可能性を探るものである。
論文 参考訳(メタデータ) (2025-03-03T22:42:00Z) - Brain Foundation Models: A Survey on Advancements in Neural Signal Processing and Brain Discovery [20.558821847407895]
脳基礎モデル(BFM)は、計算神経科学における変革的パラダイムとして登場した。
BFMは大規模な事前学習技術を活用し、複数のシナリオ、タスク、モダリティを効果的に一般化することができる。
本稿では,BFMを初めて定義し,これらのモデルを様々なアプリケーションで構築・活用するための明確かつ簡潔なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-03-01T18:12:50Z) - BrainSegFounder: Towards 3D Foundation Models for Neuroimage Segmentation [6.5388528484686885]
本研究は,医療基盤モデルの創出に向けた新しいアプローチを紹介する。
本稿では,視覚変換器を用いた2段階事前学習手法を提案する。
BrainFounderは、これまでの勝利ソリューションの成果を上回る、大幅なパフォーマンス向上を実演している。
論文 参考訳(メタデータ) (2024-06-14T19:49:45Z) - A Textbook Remedy for Domain Shifts: Knowledge Priors for Medical Image Analysis [48.84443450990355]
ディープネットワークは、医学的なスキャンに適用すると、例外のない状況で失敗することが多いため、自然画像の解析において広く成功している。
胸部X線や皮膚病変画像の文脈において、異なる病院から採取したデータや、性別、人種などの人口統計学的変数によって構築されたデータなど、ドメインシフトに対するモデル感度に焦点をあてる。
医学教育からインスピレーションを得て,自然言語で伝達される明示的な医学知識を基盤としたディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T17:55:02Z) - OpenMEDLab: An Open-source Platform for Multi-modality Foundation Models
in Medicine [55.29668193415034]
マルチモダリティ基盤モデルのためのオープンソースプラットフォームであるOpenMEDLabについて紹介する。
これは、最前線臨床および生体情報学応用のための大規模言語とビジョンモデルを刺激し、微調整する先駆的な試みの解決策をカプセル化する。
様々な医用画像のモダリティ、臨床テキスト、タンパク質工学など、事前訓練された基礎モデル群へのアクセスが可能である。
論文 参考訳(メタデータ) (2024-02-28T03:51:02Z) - Foundational Models in Medical Imaging: A Comprehensive Survey and
Future Vision [6.2847894163744105]
ファンデーションモデルは、広範囲の下流タスクに適応した大規模で事前訓練されたディープラーニングモデルである。
これらのモデルは、コンテキスト推論、一般化、テスト時の迅速な機能を促進する。
コンピュータビジョンの進歩に乗じて、医療画像はこれらのモデルへの関心も高まっている。
論文 参考訳(メタデータ) (2023-10-28T12:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。