論文の概要: Measuring skill-based uplift from AI in a real biological laboratory
- arxiv url: http://arxiv.org/abs/2512.10960v1
- Date: Wed, 29 Oct 2025 16:34:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.427107
- Title: Measuring skill-based uplift from AI in a real biological laboratory
- Title(参考訳): 生物実験室におけるAIからのスキルベース隆起の測定
- Authors: Ethan Obie Romero-Severson, Tara Harvey, Nick Generous, Phillip M. Mach,
- Abstract要約: 我々は,AI推論モデルへのアクセスによって引き起こされるEmphskillsベースの隆起の大きさを実証的に測定しようとしたパイロット研究の結果を報告する。
これらの結果は,AIとグローバルバイオセキュリティの進化的関係に関する今後の研究の文脈において論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding how AI systems are used by people in real situations that mirror aspects of both legitimate and illegitimate use is key to predicting the risks and benefits of AI systems. This is especially true in biological applications, where skill rather than knowledge is often the primary barrier for an untrained person. The challenge is that these studies are difficult to execute well and can take months to plan and run. Here we report the results of a pilot study that attempted to empirically measure the magnitude of \emph{skills-based uplift} caused by access to an AI reasoning model, compared with a control group that had only internet access. Participants -- drawn from a diverse pool of Los Alamos National Laboratory employees with no prior wet-lab experience -- were asked to transform \ecoli{} with a provided expression construct, induce expression of a reporter peptide, and have expression confirmed by mass spectrometry. We recorded quantitative outcomes (e.g., successful completion of experimental segments) and qualitative observations about how participants interacted with the AI system, the internet, laboratory equipment, and one another. We present the results of the study and lessons learned in designing and executing this type of study, and we discuss these results in the context of future studies of the evolving relationship between AI and global biosecurity.
- Abstract(参考訳): AIシステムのリスクとメリットを予測する上では、正当性と不正使用の両方の側面を反映した現実的な状況において、AIシステムがどのように使用されるかを理解することが重要だ。
これは生物学的応用において特に当てはまり、知識よりもスキルが訓練されていない人の主要な障壁であることが多い。
課題は、これらの研究がうまく実行することは難しく、計画と実行に何ヶ月もかかることだ。
本稿では、AI推論モデルへのアクセスによる「emph{skills-based uplift}」の大きさを、インターネットアクセスのみを持つ制御グループと比較して実証的に測定しようとしたパイロット研究の結果を報告する。
ロスアラモス国立研究所の多様なプールから抽出された参加者は、用意された表現構造で「ecoli{}」を変換し、レポーターペプチドの発現を誘導し、質量分析で表現を確認するよう求められた。
参加者がAIシステム、インターネット、実験機器、そして相互にどのように相互作用したかについて、定量的な結果(例:実験セグメントの完成)と質的な観察を行った。
この種の研究を設計・実行する際に得られた研究成果と教訓を述べるとともに,これらの成果を,AIとグローバルバイオセキュリティの進化的関係に関する今後の研究の文脈において論じる。
関連論文リスト
- SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - AI Agents in Drug Discovery [1.9777700354742123]
エージェントAIシステムは、多様なバイオメディカルデータを統合し、タスクを実行し、ロボットプラットフォームを介して実験を行い、クローズドループで仮説を反復的に洗練することができる。
エージェントAIアーキテクチャの概念的および技術的概要は、ReAct、Reflection、Supervisor、Swarmシステムまで様々である。
文献合成,毒性予測,自動プロトコル生成,小分子合成,薬物再資源化,エンドツーエンド意思決定など,薬物発見の重要な段階にまたがる応用について解説する。
論文 参考訳(メタデータ) (2025-10-31T03:07:14Z) - LabOS: The AI-XR Co-Scientist That Sees and Works With Humans [51.025615465050635]
LabOSは、計算推論と物理実験を結びつける最初のAI共同科学者である。
マルチモデルAIエージェント、スマートグラス、人間とAIのコラボレーションを接続することで、LabOSはAIが科学者が見ているものを確認し、実験コンテキストを理解し、リアルタイム実行を支援することができる。
論文 参考訳(メタデータ) (2025-10-16T16:36:22Z) - Deliberate Lab: A Platform for Real-Time Human-AI Social Experiments [9.689197691319741]
Deliberate Labは、大規模でリアルタイムな行動実験のためのオープンソースのプラットフォームである。
人間の参加者と大きな言語モデル(LLM)ベースのエージェントの両方をサポートする。
論文 参考訳(メタデータ) (2025-10-14T22:02:24Z) - Position: Intelligent Science Laboratory Requires the Integration of Cognitive and Embodied AI [98.19195693735487]
知的科学研究所(ISL)のパラダイムを提案する。
ISLは、認知と具体的知性を深く統合した多層クローズドループフレームワークである。
このようなシステムは、現在の科学的発見の限界を克服するために不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-24T13:31:44Z) - Autonomous Microscopy Experiments through Large Language Model Agents [4.241267255764773]
大規模言語モデル(LLM)は、材料研究のための自己運転実験室(SDL)に革命をもたらしている。
LLM駆動エージェントによる原子間力顕微鏡の自動化フレームワークであるArtificially Intelligent Lab Assistant (AILA)を紹介する。
アートモデルの現状が,基本的なタスクや調整シナリオに苦労していることに気付きました。
論文 参考訳(メタデータ) (2024-12-18T09:35:28Z) - User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - Physical formula enhanced multi-task learning for pharmacokinetics prediction [54.13787789006417]
AIによる薬物発見の大きな課題は、高品質なデータの不足である。
薬物動態の4つの重要なパラメータを同時に予測するPEMAL法を開発した。
実験の結果,PEMALは一般的なグラフニューラルネットワークに比べてデータ需要を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-04-16T07:42:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。