論文の概要: Can Large Language Models Design Biological Weapons? Evaluating Moremi Bio
- arxiv url: http://arxiv.org/abs/2505.17154v1
- Date: Thu, 22 May 2025 11:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.61797
- Title: Can Large Language Models Design Biological Weapons? Evaluating Moremi Bio
- Title(参考訳): 大規模言語モデルは生物兵器を設計できるか? : モレミバイオの評価
- Authors: Gertrude Hattoh, Jeremiah Ayensu, Nyarko Prince Ofori, Solomon Eshun, Darlington Akogo,
- Abstract要約: 我々の研究は1020の新規な毒性タンパク質と5,000の毒性の小さな分子を生み出した。
詳細な計算毒性評価の結果、全てのタンパク質が毒性が高いことが判明した。
バイオテクノロジーの急速な革新とバイオセキュリティ・インペラティブのバランスをとるために,ロバストなガバナンスと技術的保護の必要性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Advances in AI, particularly LLMs, have dramatically shortened drug discovery cycles by up to 40% and improved molecular target identification. However, these innovations also raise dual-use concerns by enabling the design of toxic compounds. Prompting Moremi Bio Agent without the safety guardrails to specifically design novel toxic substances, our study generated 1020 novel toxic proteins and 5,000 toxic small molecules. In-depth computational toxicity assessments revealed that all the proteins scored high in toxicity, with several closely matching known toxins such as ricin, diphtheria toxin, and disintegrin-based snake venom proteins. Some of these novel agents showed similarities with other several known toxic agents including disintegrin eristostatin, metalloproteinase, disintegrin triflavin, snake venom metalloproteinase, corynebacterium ulcerans toxin. Through quantitative risk assessments and scenario analyses, we identify dual-use capabilities in current LLM-enabled biodesign pipelines and propose multi-layered mitigation strategies. The findings from this toxicity assessment challenge claims that large language models (LLMs) are incapable of designing bioweapons. This reinforces concerns about the potential misuse of LLMs in biodesign, posing a significant threat to research and development (R&D). The accessibility of such technology to individuals with limited technical expertise raises serious biosecurity risks. Our findings underscore the critical need for robust governance and technical safeguards to balance rapid biotechnological innovation with biosecurity imperatives.
- Abstract(参考訳): AI、特にLLMの進歩は、薬物発見サイクルを最大40%短縮し、分子標的同定を改善した。
しかし、これらの革新は、有毒化合物の設計を可能にすることによって、二重用途の懸念も引き起こす。
新たな毒性物質を設計するための安全ガードレールを使わずにモレミバイオエージェントを試作し、1020個の新規毒性タンパク質と5,000個の毒性小分子を生成した。
詳細な計算毒性評価の結果、全てのタンパク質は高い毒性を示しており、リシン、ジフテリア毒素、ディスインテリンをベースとしたヘビ毒タンパク質など、よく似た毒素がいくつか含まれていた。
これらの新薬のいくつかは、Disintegrin eristostatin, metalloproteinase, disintegrin triflavin, snake venom metalloproteinase, corynebacterium ulcerans toxinなど、他の既知の有毒物質と類似性を示した。
定量的リスクアセスメントとシナリオ分析により、現在のLCM対応バイオデザインパイプラインにおける二重利用能力を同定し、多層緩和戦略を提案する。
この毒性評価の課題から得られた知見は、大型言語モデル(LLM)は生物兵器を設計することができないと主張している。
このことは、生物設計におけるLLMの誤用の可能性への懸念を強化し、研究開発(R&D)に重大な脅威をもたらす。
技術的専門知識が限られている個人に対して、このような技術がアクセシビリティを高めることで、深刻なバイオセキュリティリスクが生じる。
バイオテクノロジーの急速な革新とバイオセキュリティ・インペラティブのバランスをとるために,ロバストなガバナンスと技術的保護の必要性が示唆された。
関連論文リスト
- Towards an AI co-scientist [48.11351101913404]
Gemini 2.0上に構築されたマルチエージェントシステムであるAIコサイシストを紹介する。
このAIの共同科学者は、新しい独創的な知識を解明し、明らかに新しい研究仮説を定式化することを目的としている。
システムの設計には、科学的手法にインスパイアされた仮説生成への生成、議論、進化のアプローチが組み込まれている。
論文 参考訳(メタデータ) (2025-02-26T06:17:13Z) - Pesti-Gen: Unleashing a Generative Molecule Approach for Toxicity Aware Pesticide Design [0.0]
気候変動により作物の弾力性と農薬の効力は減少し、合成農薬への依存は避けられない。
本稿では, 変異型オートエンコーダをベースとした新しい生成モデルであるPesti-Genを提案し, 最適化特性を有する殺虫剤候補を生成する。
ペスティ-ゲンは、新しい分子構造を生成する際に、およそ68%の構造的妥当性を達成する。
論文 参考訳(メタデータ) (2025-01-24T13:00:54Z) - BatGPT-Chem: A Foundation Large Model For Retrosynthesis Prediction [65.93303145891628]
BatGPT-Chemは150億のパラメータを持つ大規模な言語モデルであり、再合成予測の強化に最適化されている。
我々のモデルは幅広い化学知識を捉え、反応条件の正確な予測を可能にする。
この開発により、化学者は新しい化合物を十分に扱うことができ、医薬品製造と材料科学の革新サイクルを早める可能性がある。
論文 参考訳(メタデータ) (2024-08-19T05:17:40Z) - Machine Learning Applied to the Detection of Mycotoxin in Food: A Review [0.0]
マイコトキシンは世界の食料安全と公衆衛生に重大な脅威をもたらす。
従来のマイコトキシン検出のための実験室分析法は時間を要することがある。
機械学習(ML)法はマイコトキシンの検出に用いられるようになった。
論文 参考訳(メタデータ) (2024-04-23T14:13:31Z) - Detoxifying Large Language Models via Knowledge Editing [57.0669577257301]
本稿では,Large Language Models (LLM) のデトックス化のための知識編集手法について検討する。
我々は、強力な攻撃プロンプトを持つ9つの安全でないカテゴリをカバーするベンチマーク、SafeEditを構築した。
いくつかの知識編集手法を用いて実験を行い、知識編集がLLMを解毒する可能性を示し、汎用性能に限られた影響を与えていることを示す。
論文 参考訳(メタデータ) (2024-03-21T15:18:30Z) - Unveiling the Implicit Toxicity in Large Language Models [77.90933074675543]
大きな言語モデル(LLM)のオープンエンドネスと、その優れた機能を組み合わせることで、悪意のある使用のために悪用された場合、新たな安全性上の問題が発生する可能性がある。
LLMは、単純なゼロショットプロンプトによる検出が極めて困難である様々な暗黙的な有毒な出力を生成することができることを示す。
我々は,LLMの暗黙的毒性をさらに誘発する強化学習(RL)に基づく攻撃法を提案する。
論文 参考訳(メタデータ) (2023-11-29T06:42:36Z) - Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools [0.0]
本稿では,大規模言語モデル(LLM)と生物設計ツール(BDT)の2種類のAIツールを区別する。
論文 参考訳(メタデータ) (2023-06-24T12:48:49Z) - Toxicity Detection in Drug Candidates using Simplified Molecular-Input
Line-Entry System [0.0]
新しい薬物候補の毒性の分析の必要性とそれを行うための要件は、科学者の考慮を求めています。
本稿では,Long short term memory (LSTM) に基づくモデルを構築するためのパラメータとして,SMILES(simple Molecular Input Line-Entry System)を提案する。
論文 参考訳(メタデータ) (2021-01-21T07:02:21Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - Accelerating Antimicrobial Discovery with Controllable Deep Generative
Models and Molecular Dynamics [109.70543391923344]
CLaSS(Controlled Latent attribute Space Smpling)は、分子の属性制御のための効率的な計算手法である。
深層学習分類器と原子論シミュレーションから得られた新しい特徴を併用して, 生成分子を付加的なキー属性としてスクリーニングする。
提案手法は, 強い広帯域能を有する非毒性抗菌性ペプチド(AMP)を設計するためのものである。
論文 参考訳(メタデータ) (2020-05-22T15:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。