論文の概要: Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools
- arxiv url: http://arxiv.org/abs/2306.13952v3
- Date: Fri, 14 Jul 2023 07:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-17 16:29:53.916895
- Title: Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools
- Title(参考訳): 人工知能と生物学的誤用:言語モデルと生物学的デザインツールの差別化リスク
- Authors: Jonas B. Sandbrink
- Abstract要約: 本稿では,大規模言語モデル(LLM)と生物設計ツール(BDT)の2種類のAIツールを区別する。
LLMは生物学的誤用に対する障壁を減らし、BDTは高度なアクターの能力を拡大する。
LLMとBDTの異なるリスクプロファイルは、リスク軽減に重要な意味を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As advancements in artificial intelligence propel progress in the life
sciences, they may also enable the weaponisation and misuse of biological
agents. This article differentiates two classes of AI tools that pose such
biosecurity risks: large language models (LLMs) and biological design tools
(BDTs). LLMs, such as GPT-4, are already able to provide dual-use information
that could have enabled historical biological weapons efforts to succeed. As
LLMs are turned into lab assistants and autonomous science tools, this will
further increase their ability to support research. Thus, LLMs will in
particular lower barriers to biological misuse. In contrast, BDTs will expand
the capabilities of sophisticated actors. Concretely, BDTs may enable the
creation of pandemic pathogens substantially worse than anything seen to date
and could enable forms of more predictable and targeted biological weapons. In
combination, LLMs and BDTs could raise the ceiling of harm from biological
agents and could make them broadly accessible. The differing risk profiles of
LLMs and BDTs have important implications for risk mitigation. LLM risks
require urgent action and might be effectively mitigated by controlling access
to dangerous capabilities. Mandatory pre-release evaluations could be critical
to ensure that developers eliminate dangerous capabilities. Science-specific AI
tools demand differentiated strategies to allow access to legitimate users
while preventing misuse. Meanwhile, risks from BDTs are less defined and
require monitoring by developers and policymakers. Key to reducing these risks
will be enhanced screening of gene synthesis, interventions to deter biological
misuse by sophisticated actors, and exploration of specific controls of BDTs.
- Abstract(参考訳): 人工知能が生命科学の進歩を促進するにつれ、生物エージェントの兵器化や誤用も可能となるかもしれない。
本稿では,大規模言語モデル (LLM) と生物設計ツール (BDT) の2種類のAIツールを区別する。
gpt-4のようなllmはすでに、歴史的な生物学的兵器開発が成功するためのデュアルユース情報を提供することができる。
LLMを研究室のアシスタントや自律科学ツールに変えることで、研究を支援する能力はさらに向上する。
したがって、LDMは特に生物学的誤用に対する障壁を低くする。
対照的に、BDTは高度なアクターの能力を拡大する。
具体的には、BDTはパンデミックの病原体をこれまで見たことよりもはるかに悪化させ、予測可能で標的となる生物兵器の形式を可能にする可能性がある。
LLMとBDTが組み合わさると、生物剤による害の天井が上がり、広くアクセスできるようになる。
LLMとBDTの異なるリスクプロファイルは、リスク軽減に重要な意味を持つ。
LLMリスクは緊急行動を必要とし、危険な能力へのアクセスを制御することによって効果的に軽減される可能性がある。
開発者が危険な機能をなくすためには、必須のプレリリース評価が不可欠である可能性がある。
科学に特化したaiツールは、正当なユーザーへのアクセスを許可しながら誤用を防止するための差別化戦略を要求する。
一方、BDTからのリスクは定義されておらず、開発者や政策立案者による監視が必要である。
これらのリスクを減らす鍵は、遺伝子合成のスクリーニングを強化すること、高度なアクターによる生物学的誤用を防ぐための介入、BDTの特定の制御の探索である。
関連論文リスト
- CRISPR-GPT: An LLM Agent for Automated Design of Gene-Editing Experiments [51.41735920759667]
大規模言語モデル(LLM)は様々なタスクにおいて有望であるが、しばしば特定の知識が欠如し、生物学的設計の問題を正確に解くのに苦労する。
本研究では,CRISPRに基づく遺伝子編集実験の設計プロセスを自動化するために,ドメイン知識と外部ツールを付加したLCMエージェントであるCRISPR-GPTを紹介する。
論文 参考訳(メタデータ) (2024-04-27T22:59:17Z) - Exploring Autonomous Agents through the Lens of Large Language Models: A Review [0.0]
大規模言語モデル(LLM)は人工知能を変革し、自律エージェントがさまざまなドメインで多様なタスクを実行できるようにしている。
彼らは多目的性、人的価値のアライメント、幻覚、評価といった課題に直面している。
AgentBench、WebArena、ToolLLMといった評価プラットフォームは、複雑なシナリオでこれらのエージェントを評価する堅牢な方法を提供します。
論文 参考訳(メタデータ) (2024-04-05T22:59:02Z) - Empowering Biomedical Discovery with AI Agents [15.125735219811268]
我々は「AI科学者」を懐疑的な学習と推論が可能なシステムとして想定する。
バイオメディカルAIエージェントは、人間の創造性と専門知識と、大規模なデータセットを分析するAIの能力を組み合わせる。
論文 参考訳(メタデータ) (2024-04-03T16:08:01Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and
Limitations [75.62309487375126]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - What Does the Bot Say? Opportunities and Risks of Large Language Models
in Social Media Bot Detection [51.46864805462009]
ソーシャルボット検出における大規模言語モデルの可能性とリスクについて検討する。
本稿では,多様なユーザ情報モダリティを分割し,克服するための混合異種エキスパートフレームワークを提案する。
実験により、1000の注釈付き例に対する命令チューニングは、最先端のベースラインよりも優れた特殊なLLMを生成することが示された。
論文 参考訳(メタデータ) (2024-02-01T06:21:19Z) - Towards Risk Analysis of the Impact of AI on the Deliberate Biological
Threat Landscape [0.0]
2023 安全、安全、信頼に値する開発と人工知能の利用に関する執行命令は、AIがバイオリスクを高める方法を評価する必要がある。
本稿では,バイオリスク評価のための簡易なフレームワークを提案する。
そして、既存のリスク評価の成果を基盤として、エンジニアリング生物学のためのAI対応ツールのキャラクタリゼーションの取り組みがなぜ必要かを正当化する潜在的な道筋を提案する。
論文 参考訳(メタデータ) (2024-01-23T13:35:16Z) - Towards Responsible Governance of Biological Design Tools [0.0]
生成機械学習の最近の進歩は、生物設計ツール(BDT)の急速な進歩を可能にした
前例のないBDTの予測精度と新規設計能力は、新しい重要な二重利用リスクをもたらす。
他のデュアルユースAIシステムと同様、BDTも悪質な問題を抱えている。
我々は、責任ある開発、リスクアセスメント、透明性、アクセス管理、サイバーセキュリティ、レジリエンスへの投資などにおいて、BDTが誤用されるリスクを軽減するためのさまざまな手段を提案する。
論文 参考訳(メタデータ) (2023-11-27T15:45:02Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Can large language models democratize access to dual-use biotechnology? [0.0]
大規模言語モデル(LLM)は研究を加速し、民主化している。
これらのモデルはまた、大きな損害を与える可能性のあるデュアルユース技術への容易なアクセスを与えるかもしれない。
このリスクを評価するため、MITの'Safeguarding the Future'コースでは、非科学者の学生を対象に調査を行った。
論文 参考訳(メタデータ) (2023-06-06T15:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。