論文の概要: Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools
- arxiv url: http://arxiv.org/abs/2306.13952v6
- Date: Sun, 29 Oct 2023 16:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 20:59:29.171010
- Title: Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools
- Title(参考訳): 人工知能と生物学的誤用:言語モデルと生物学的デザインツールの差別化リスク
- Authors: Jonas B. Sandbrink
- Abstract要約: 本稿では,大規模言語モデル(LLM)と生物設計ツール(BDT)の2種類のAIツールを区別する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As advancements in artificial intelligence (AI) propel progress in the life
sciences, they may also enable the weaponisation and misuse of biological
agents. This article differentiates two classes of AI tools that could pose
such biosecurity risks: large language models (LLMs) and biological design
tools (BDTs). LLMs, such as GPT-4 and its successors, might provide dual-use
information and thus remove some barriers encountered by historical biological
weapons efforts. As LLMs are turned into multi-modal lab assistants and
autonomous science tools, this will increase their ability to support
non-experts in performing laboratory work. Thus, LLMs may in particular lower
barriers to biological misuse. In contrast, BDTs will expand the capabilities
of sophisticated actors. Concretely, BDTs may enable the creation of pandemic
pathogens substantially worse than anything seen to date and could enable forms
of more predictable and targeted biological weapons. In combination, the
convergence of LLMs and BDTs could raise the ceiling of harm from biological
agents and could make them broadly accessible. A range of interventions would
help to manage risks. Independent pre-release evaluations could help understand
the capabilities of models and the effectiveness of safeguards. Options for
differentiated access to such tools should be carefully weighed with the
benefits of openly releasing systems. Lastly, essential for mitigating risks
will be universal and enhanced screening of gene synthesis products.
- Abstract(参考訳): 人工知能(AI)の進歩が生命科学の進歩を促進するにつれ、生物エージェントの兵器化や誤用も可能となるかもしれない。
本稿では,大規模言語モデル (LLM) と生物設計ツール (BDT) の2種類のAIツールを区別する。
GPT-4などのLCMは、二重用途の情報を提供し、歴史的生物兵器による障壁を取り除く可能性がある。
LLMはマルチモーダルなラボアシスタントや自律科学ツールに変換されるため、実験室での作業において、非専門家をサポートする能力が向上する。
したがって、LDMは特に生物学的誤用に対する障壁を低くすることができる。
対照的に、BDTは高度なアクターの能力を拡大する。
具体的には、BDTはパンデミックの病原体をこれまで見たことよりもはるかに悪化させ、予測可能で標的となる生物兵器の形式を可能にする可能性がある。
LLMとBDTの収束は、生物学的剤による害の天井を上昇させ、それらが広くアクセスできるようにする。
さまざまな介入がリスク管理に役立ちます。
独立したプレリリース評価は、モデルの能力とセーフガードの有効性を理解するのに役立つだろう。
このようなツールへのアクセスを差別化するための選択肢は、オープンリリースシステムのメリットを慎重に考慮すべきである。
最後に、リスク軽減に必須となるのは、遺伝子合成産物の普遍的スクリーニングと強化である。
関連論文リスト
- CRISPR-GPT: An LLM Agent for Automated Design of Gene-Editing Experiments [51.41735920759667]
大規模言語モデル(LLM)は様々なタスクにおいて有望であるが、しばしば特定の知識が欠如し、生物学的設計の問題を正確に解くのに苦労する。
本研究では,CRISPRに基づく遺伝子編集実験の設計プロセスを自動化するために,ドメイン知識と外部ツールを付加したLCMエージェントであるCRISPR-GPTを紹介する。
論文 参考訳(メタデータ) (2024-04-27T22:59:17Z) - Exploring Autonomous Agents through the Lens of Large Language Models: A Review [0.0]
大規模言語モデル(LLM)は人工知能を変革し、自律エージェントがさまざまなドメインで多様なタスクを実行できるようにしている。
彼らは多目的性、人的価値のアライメント、幻覚、評価といった課題に直面している。
AgentBench、WebArena、ToolLLMといった評価プラットフォームは、複雑なシナリオでこれらのエージェントを評価する堅牢な方法を提供します。
論文 参考訳(メタデータ) (2024-04-05T22:59:02Z) - Empowering Biomedical Discovery with AI Agents [15.125735219811268]
我々は「AI科学者」を懐疑的な学習と推論が可能なシステムとして想定する。
バイオメディカルAIエージェントは、人間の創造性と専門知識と、大規模なデータセットを分析するAIの能力を組み合わせる。
論文 参考訳(メタデータ) (2024-04-03T16:08:01Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and
Limitations [75.62309487375126]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - What Does the Bot Say? Opportunities and Risks of Large Language Models
in Social Media Bot Detection [51.46864805462009]
ソーシャルボット検出における大規模言語モデルの可能性とリスクについて検討する。
本稿では,多様なユーザ情報モダリティを分割し,克服するための混合異種エキスパートフレームワークを提案する。
実験により、1000の注釈付き例に対する命令チューニングは、最先端のベースラインよりも優れた特殊なLLMを生成することが示された。
論文 参考訳(メタデータ) (2024-02-01T06:21:19Z) - Towards Risk Analysis of the Impact of AI on the Deliberate Biological
Threat Landscape [0.0]
2023 安全、安全、信頼に値する開発と人工知能の利用に関する執行命令は、AIがバイオリスクを高める方法を評価する必要がある。
本稿では,バイオリスク評価のための簡易なフレームワークを提案する。
そして、既存のリスク評価の成果を基盤として、エンジニアリング生物学のためのAI対応ツールのキャラクタリゼーションの取り組みがなぜ必要かを正当化する潜在的な道筋を提案する。
論文 参考訳(メタデータ) (2024-01-23T13:35:16Z) - Towards Responsible Governance of Biological Design Tools [0.0]
生成機械学習の最近の進歩は、生物設計ツール(BDT)の急速な進歩を可能にした
前例のないBDTの予測精度と新規設計能力は、新しい重要な二重利用リスクをもたらす。
他のデュアルユースAIシステムと同様、BDTも悪質な問題を抱えている。
我々は、責任ある開発、リスクアセスメント、透明性、アクセス管理、サイバーセキュリティ、レジリエンスへの投資などにおいて、BDTが誤用されるリスクを軽減するためのさまざまな手段を提案する。
論文 参考訳(メタデータ) (2023-11-27T15:45:02Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Can large language models democratize access to dual-use biotechnology? [0.0]
大規模言語モデル(LLM)は研究を加速し、民主化している。
これらのモデルはまた、大きな損害を与える可能性のあるデュアルユース技術への容易なアクセスを与えるかもしれない。
このリスクを評価するため、MITの'Safeguarding the Future'コースでは、非科学者の学生を対象に調査を行った。
論文 参考訳(メタデータ) (2023-06-06T15:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。