論文の概要: Can large language models democratize access to dual-use biotechnology?
- arxiv url: http://arxiv.org/abs/2306.03809v1
- Date: Tue, 6 Jun 2023 15:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 14:36:54.867849
- Title: Can large language models democratize access to dual-use biotechnology?
- Title(参考訳): 大規模言語モデルはデュアルユースバイオテクノロジーへのアクセスを民主化できるか?
- Authors: Emily H. Soice, Rafael Rocha, Kimberlee Cordova, Michael Specter, and
Kevin M. Esvelt
- Abstract要約: 大規模言語モデル(LLM)は研究を加速し、民主化している。
これらのモデルはまた、大きな損害を与える可能性のあるデュアルユース技術への容易なアクセスを与えるかもしれない。
このリスクを評価するため、MITの'Safeguarding the Future'コースでは、非科学者の学生を対象に調査を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) such as those embedded in 'chatbots' are
accelerating and democratizing research by providing comprehensible information
and expertise from many different fields. However, these models may also confer
easy access to dual-use technologies capable of inflicting great harm. To
evaluate this risk, the 'Safeguarding the Future' course at MIT tasked
non-scientist students with investigating whether LLM chatbots could be
prompted to assist non-experts in causing a pandemic. In one hour, the chatbots
suggested four potential pandemic pathogens, explained how they can be
generated from synthetic DNA using reverse genetics, supplied the names of DNA
synthesis companies unlikely to screen orders, identified detailed protocols
and how to troubleshoot them, and recommended that anyone lacking the skills to
perform reverse genetics engage a core facility or contract research
organization. Collectively, these results suggest that LLMs will make
pandemic-class agents widely accessible as soon as they are credibly
identified, even to people with little or no laboratory training. Promising
nonproliferation measures include pre-release evaluations of LLMs by third
parties, curating training datasets to remove harmful concepts, and verifiably
screening all DNA generated by synthesis providers or used by contract research
organizations and robotic cloud laboratories to engineer organisms or viruses.
- Abstract(参考訳): チャットボット"に埋め込まれたような大規模言語モデル(llm)は、さまざまな分野から理解可能な情報と専門知識を提供することで、研究を加速し、民主化している。
しかし、これらのモデルは、大きな損害を与える可能性のあるデュアルユース技術への容易にアクセスを提供することもできる。
このリスクを評価するため、MITの'Safeguarding the Future'コースでは、非科学者の学生に、LLMチャットボットがパンデミックの原因となる非専門家を支援することができるかどうかを調査するよう指示した。
1時間以内に、チャットボットは4つの潜在的なパンデミック病原体を提案し、逆遺伝学を使って合成DNAからどのように生成できるかを説明し、DNA合成会社の名前を検査できないよう供給し、詳細なプロトコルを特定し、それらをトラブルシュートする方法を示し、逆遺伝学を行うスキルを欠いた者は、コア施設や契約研究組織に関与するよう推奨した。
総じて,llmは,臨床訓練がほとんどあるいは全く行われていない人でも,パンデミック級のエージェントが信頼でき次第,広くアクセスできるようになることが示唆された。
非増殖防止策として、サードパーティによるLCMのプレリリース評価、有害な概念を除去するためのトレーニングデータセットのキュレーション、合成提供者や契約研究機関やロボットクラウド研究所が生み出した全てのDNAの検証などが挙げられる。
関連論文リスト
- AIGS: Generating Science from AI-Powered Automated Falsification [17.50867181053229]
本稿では,重要な研究プロセスを代表する役割を担ったマルチエージェントシステムである,フルプロセスAIGSシステムのベビーステップとして,Baby-AIGSを提案する。
3つのタスクの実験では、Baby-AIGSは経験豊富な人間の研究者と同等ではないが、有意義な科学的発見を産み出すことができた。
論文 参考訳(メタデータ) (2024-11-17T13:40:35Z) - BioDiscoveryAgent: An AI Agent for Designing Genetic Perturbation Experiments [112.25067497985447]
そこで,BioDiscoveryAgentを紹介した。このエージェントは,新しい実験を設計し,その結果の理由を明らかにし,仮説空間を効率的にナビゲートし,望ましい解に到達させる。
BioDiscoveryAgentは、機械学習モデルをトレーニングすることなく、新しい実験を独自に設計することができる。
6つのデータセットで関連する遺伝的摂動を予測することで、平均21%の改善が達成されている。
論文 参考訳(メタデータ) (2024-05-27T19:57:17Z) - Large language models surpass human experts in predicting neuroscience results [60.26891446026707]
大きな言語モデル(LLM)は、人間の専門家よりも新しい結果を予測する。
BrainBenchは神経科学の結果を予測するためのベンチマークだ。
我々のアプローチは神経科学に特有ではなく、他の知識集約的な取り組みに伝達可能である。
論文 参考訳(メタデータ) (2024-03-04T15:27:59Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - What Does the Bot Say? Opportunities and Risks of Large Language Models in Social Media Bot Detection [48.572932773403274]
ソーシャルボット検出における大規模言語モデルの可能性とリスクについて検討する。
本稿では,多様なユーザ情報モダリティを分割し,克服するための混合異種エキスパートフレームワークを提案する。
実験により、1000の注釈付き例に対する命令チューニングは、最先端のベースラインよりも優れた特殊なLLMを生成することが示された。
論文 参考訳(メタデータ) (2024-02-01T06:21:19Z) - Artificial intelligence and biological misuse: Differentiating risks of
language models and biological design tools [0.0]
本稿では,大規模言語モデル(LLM)と生物設計ツール(BDT)の2種類のAIツールを区別する。
論文 参考訳(メタデータ) (2023-06-24T12:48:49Z) - Synthetic Misinformers: Generating and Combating Multimodal
Misinformation [11.696058634552147]
マルチモーダル誤情報検出(MMD)は、画像と付随するテキストの組み合わせが誤読や誤字を検知する。
提案したCLIPベースの名前付きエンティティスワッピングは,マルチモーダル精度で他のOOCやNEIミスコンバータを上回り,MDDモデルに繋がることを示す。
論文 参考訳(メタデータ) (2023-03-02T12:59:01Z) - Deep metric learning improves lab of origin prediction of genetically
engineered plasmids [63.05016513788047]
遺伝工学の属性(GEA)は、配列-ラブの関連を作る能力である。
本稿では,計量学習に基づいて,最も可能性の高い実験室をランク付けする手法を提案する。
我々は、特定の実験室のプラスミド配列のキーシグネチャを抽出することができ、モデル出力の解釈可能な検査を可能にする。
論文 参考訳(メタデータ) (2021-11-24T16:29:03Z) - Privacy-preserving Artificial Intelligence Techniques in Biomedicine [3.908261721108553]
機密データに基づくAIモデルのトレーニングは、個々の参加者のプライバシに関する懸念を提起する。
本稿では,生物医学におけるプライバシ保存型AI技術の進歩について概説する。
最も重要な最先端のアプローチを統一された分類分野に配置し、その強み、限界、オープンな問題について議論する。
論文 参考訳(メタデータ) (2020-07-22T18:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。