論文の概要: Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools
- arxiv url: http://arxiv.org/abs/2306.13952v7
- Date: Thu, 21 Dec 2023 15:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 18:58:53.597018
- Title: Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools
- Title(参考訳): 人工知能と生物学的誤用:言語モデルと生物学的デザインツールの差別化リスク
- Authors: Jonas B. Sandbrink
- Abstract要約: 本稿では,大規模言語モデル(LLM)と生物設計ツール(BDT)の2種類のAIツールを区別する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As advancements in artificial intelligence (AI) propel progress in the life
sciences, they may also enable the weaponisation and misuse of biological
agents. This article differentiates two classes of AI tools that could pose
such biosecurity risks: large language models (LLMs) and biological design
tools (BDTs). LLMs, such as GPT-4 and its successors, might provide dual-use
information and thus remove some barriers encountered by historical biological
weapons efforts. As LLMs are turned into multi-modal lab assistants and
autonomous science tools, this will increase their ability to support
non-experts in performing laboratory work. Thus, LLMs may in particular lower
barriers to biological misuse. In contrast, BDTs will expand the capabilities
of sophisticated actors. Concretely, BDTs may enable the creation of pandemic
pathogens substantially worse than anything seen to date and could enable forms
of more predictable and targeted biological weapons. In combination, the
convergence of LLMs and BDTs could raise the ceiling of harm from biological
agents and could make them broadly accessible. A range of interventions would
help to manage risks. Independent pre-release evaluations could help understand
the capabilities of models and the effectiveness of safeguards. Options for
differentiated access to such tools should be carefully weighed with the
benefits of openly releasing systems. Lastly, essential for mitigating risks
will be universal and enhanced screening of gene synthesis products.
- Abstract(参考訳): 人工知能(AI)の進歩が生命科学の進歩を促進するにつれ、生物エージェントの兵器化や誤用も可能となるかもしれない。
本稿では,大規模言語モデル (LLM) と生物設計ツール (BDT) の2種類のAIツールを区別する。
GPT-4などのLCMは、二重用途の情報を提供し、歴史的生物兵器による障壁を取り除く可能性がある。
LLMはマルチモーダルなラボアシスタントや自律科学ツールに変換されるため、実験室での作業において、非専門家をサポートする能力が向上する。
したがって、LDMは特に生物学的誤用に対する障壁を低くすることができる。
対照的に、BDTは高度なアクターの能力を拡大する。
具体的には、BDTはパンデミックの病原体をこれまで見たことよりもはるかに悪化させ、予測可能で標的となる生物兵器の形式を可能にする可能性がある。
LLMとBDTの収束は、生物学的剤による害の天井を上昇させ、それらが広くアクセスできるようにする。
さまざまな介入がリスク管理に役立ちます。
独立したプレリリース評価は、モデルの能力とセーフガードの有効性を理解するのに役立つだろう。
このようなツールへのアクセスを差別化するための選択肢は、オープンリリースシステムのメリットを慎重に考慮すべきである。
最後に、リスク軽減に必須となるのは、遺伝子合成産物の普遍的スクリーニングと強化である。
関連論文リスト
- Large Language Models as Biomedical Hypothesis Generators: A Comprehensive Evaluation [15.495976478018264]
大規模言語モデル(LLM)は、知識相互作用に革命をもたらす有望なツールとして登場した。
バイオメディカル文献から背景と仮説のペアのデータセットを構築し、トレーニング、観察、および見えないテストセットに分割する。
最上位モデルの仮説生成能力を、ゼロショット、少数ショット、微調整設定で評価する。
論文 参考訳(メタデータ) (2024-07-12T02:55:13Z) - BioDiscoveryAgent: An AI Agent for Designing Genetic Perturbation Experiments [112.25067497985447]
そこで,BioDiscoveryAgentを紹介した。このエージェントは,新しい実験を設計し,その結果の理由を明らかにし,仮説空間を効率的にナビゲートし,望ましい解に到達させる。
BioDiscoveryAgentは、機械学習モデルをトレーニングすることなく、新しい実験を独自に設計することができる。
6つのデータセットで関連する遺伝的摂動を予測することで、平均21%の改善が達成されている。
論文 参考訳(メタデータ) (2024-05-27T19:57:17Z) - Prioritizing High-Consequence Biological Capabilities in Evaluations of Artificial Intelligence Models [0.0]
AI評価モデルは、高頻度リスクへの対処を優先すべきである、と我々は主張する。
これらのリスクは、パンデミックなど、大衆に大規模な被害をもたらす可能性がある。
二重用途の生物学的リスクを特定し緩和する科学者の経験は、生物学的AIモデルを評価するための新しいアプローチに役立ちます。
論文 参考訳(メタデータ) (2024-05-25T16:29:17Z) - CRISPR-GPT: An LLM Agent for Automated Design of Gene-Editing Experiments [51.41735920759667]
大規模言語モデル(LLM)は様々なタスクにおいて有望であるが、しばしば特定の知識が欠如し、生物学的設計の問題を正確に解くのに苦労する。
本研究では,CRISPRに基づく遺伝子編集実験の設計プロセスを自動化するために,ドメイン知識と外部ツールを付加したLCMエージェントであるCRISPR-GPTを紹介する。
論文 参考訳(メタデータ) (2024-04-27T22:59:17Z) - Empowering Biomedical Discovery with AI Agents [15.125735219811268]
我々は「AI科学者」を懐疑的な学習と推論が可能なシステムとして想定する。
バイオメディカルAIエージェントは、人間の創造性と専門知識と、大規模なデータセットを分析するAIの能力を組み合わせる。
AIエージェントは、仮想細胞シミュレーション、プログラム可能な表現型の制御、細胞回路の設計、新しい治療法の開発など、幅広い領域に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-04-03T16:08:01Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and Limitations [76.19419888353586]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Towards Responsible Governance of Biological Design Tools [0.0]
生成機械学習の最近の進歩は、生物設計ツール(BDT)の急速な進歩を可能にした
前例のないBDTの予測精度と新規設計能力は、新しい重要な二重利用リスクをもたらす。
他のデュアルユースAIシステムと同様、BDTも悪質な問題を抱えている。
我々は、責任ある開発、リスクアセスメント、透明性、アクセス管理、サイバーセキュリティ、レジリエンスへの投資などにおいて、BDTが誤用されるリスクを軽減するためのさまざまな手段を提案する。
論文 参考訳(メタデータ) (2023-11-27T15:45:02Z) - Can large language models democratize access to dual-use biotechnology? [0.0]
大規模言語モデル(LLM)は研究を加速し、民主化している。
これらのモデルはまた、大きな損害を与える可能性のあるデュアルユース技術への容易なアクセスを与えるかもしれない。
このリスクを評価するため、MITの'Safeguarding the Future'コースでは、非科学者の学生を対象に調査を行った。
論文 参考訳(メタデータ) (2023-06-06T15:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。