論文の概要: The Reality of AI and Biorisk
- arxiv url: http://arxiv.org/abs/2412.01946v1
- Date: Mon, 02 Dec 2024 20:14:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:22.894165
- Title: The Reality of AI and Biorisk
- Title(参考訳): AIとバイオリスクの現実
- Authors: Aidan Peppin, Anka Reuel, Stephen Casper, Elliot Jones, Andrew Strait, Usman Anwar, Anurag Agrawal, Sayash Kapoor, Sanmi Koyejo, Marie Pellat, Rishi Bommasani, Nick Frosst, Sara Hooker,
- Abstract要約: AIモデルやシステムがバイオリスクを増大させるための健全な理論的脅威モデルと、その脅威モデルをテストする堅牢な方法の両方を持つことが必要である。
本稿では,2つのAIおよびバイオリスク脅威モデルに関する既存の研究について分析する。
- 参考スコア(独自算出の注目度): 24.945718952309157
- License:
- Abstract: To accurately and confidently answer the question 'could an AI model or system increase biorisk', it is necessary to have both a sound theoretical threat model for how AI models or systems could increase biorisk and a robust method for testing that threat model. This paper provides an analysis of existing available research surrounding two AI and biorisk threat models: 1) access to information and planning via large language models (LLMs), and 2) the use of AI-enabled biological tools (BTs) in synthesizing novel biological artifacts. We find that existing studies around AI-related biorisk are nascent, often speculative in nature, or limited in terms of their methodological maturity and transparency. The available literature suggests that current LLMs and BTs do not pose an immediate risk, and more work is needed to develop rigorous approaches to understanding how future models could increase biorisks. We end with recommendations about how empirical work can be expanded to more precisely target biorisk and ensure rigor and validity of findings.
- Abstract(参考訳): 「AIモデルやシステムがバイオリスクを増大させるか」という質問に正確かつ確実に答えるためには、AIモデルやシステムがバイオリスクを増大させるための健全な理論的脅威モデルと、その脅威モデルをテストする堅牢な方法の両方が必要である。
本稿では,2つのAIおよびバイオリスク脅威モデルを取り巻く既存の研究について分析する。
1)大型言語モデル(LLM)による情報・計画へのアクセス、及び
2) 新規な生物学的アーティファクトの合成におけるAI対応生物ツール(BT)の利用
AI関連のバイオリスクに関する既存の研究は、生まれつき、しばしば投機的であり、その方法論的成熟度と透明性の点で制限されている。
利用可能な文献では、現在のLSMとBTはすぐにリスクを生じず、将来のモデルが生物リスクをいかに増大させるかを理解するための厳密なアプローチを開発するためにより多くの作業が必要であることが示唆されている。
実験的な作業がより正確にバイオリスクを対象とし、厳密さと発見の妥当性を確保するためにどのように拡張できるかを推奨する。
関連論文リスト
- BioDiscoveryAgent: An AI Agent for Designing Genetic Perturbation Experiments [112.25067497985447]
そこで,BioDiscoveryAgentを紹介した。このエージェントは,新しい実験を設計し,その結果の理由を明らかにし,仮説空間を効率的にナビゲートし,望ましい解に到達させる。
BioDiscoveryAgentは、機械学習モデルをトレーニングすることなく、新しい実験を独自に設計することができる。
6つのデータセットで関連する遺伝的摂動を予測することで、平均21%の改善が達成されている。
論文 参考訳(メタデータ) (2024-05-27T19:57:17Z) - Prioritizing High-Consequence Biological Capabilities in Evaluations of Artificial Intelligence Models [0.0]
AI評価モデルは、高頻度リスクへの対処を優先すべきである、と我々は主張する。
これらのリスクは、パンデミックなど、大衆に大規模な被害をもたらす可能性がある。
二重用途の生物学的リスクを特定し緩和する科学者の経験は、生物学的AIモデルを評価するための新しいアプローチに役立ちます。
論文 参考訳(メタデータ) (2024-05-25T16:29:17Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - The whack-a-mole governance challenge for AI-enabled synthetic biology:
literature review and emerging frameworks [0.0]
AIによる合成生物学は、大きな可能性を秘めているが、バイオリスクも著しく増大している。
将来のAIによるバイオハザードの予防と緩和を可能にする早期警戒システムを実現するには、常に進化する必要がある。
生成AIによって実現されたチャットボットの最近の進歩は、高度な生物学的洞察が悪性個人や組織の手に入りやすいという懸念を復活させた。
論文 参考訳(メタデータ) (2024-02-01T03:53:13Z) - Towards Risk Analysis of the Impact of AI on the Deliberate Biological Threat Landscape [0.0]
生物工学と人工知能の融合によって生物リスクが増大する可能性があるという認識は、バイオテクノロジーと人工知能のガバナンスに注意を向けている。
2023年、人工知能の安全、安全、信頼に足る開発と利用に関する執行命令は、人工知能がバイオリスクをいかに高めるかを評価する必要がある。
この視点は、評価手法と評価手法が、生命科学におけるAIの進歩に追随しなければならないことを指摘して結論付けている。
論文 参考訳(メタデータ) (2024-01-23T13:35:16Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - XAI meets Biology: A Comprehensive Review of Explainable AI in
Bioinformatics Applications [5.91274133032321]
説明可能なAI(XAI)は、バイオインフォマティクスにおけるAIモデルの透明性と解釈可能性を高めるための有望なソリューションとして登場した。
本総説では, バイオインフォマティクス分野における各種XAI技術とその応用について概説する。
論文 参考訳(メタデータ) (2023-12-11T03:08:18Z) - Unmasking Biases and Navigating Pitfalls in the Ophthalmic Artificial
Intelligence Lifecycle: A Review [3.1929071422400446]
この記事では、AIライフサイクルを7つのステップに分割する。
データ収集; モデルタスクの定義; データ前処理とラベル付け; モデル開発; モデル評価と検証; デプロイメント。
最後に、デプロイ後の評価、監視、システムリカレーションを行い、各ステップにおける害のリスクと、それらを緩和するための戦略を掘り下げます。
論文 参考訳(メタデータ) (2023-10-08T03:49:42Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。