論文の概要: The whack-a-mole governance challenge for AI-enabled synthetic biology:
literature review and emerging frameworks
- arxiv url: http://arxiv.org/abs/2402.00312v1
- Date: Thu, 1 Feb 2024 03:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 16:36:32.826183
- Title: The whack-a-mole governance challenge for AI-enabled synthetic biology:
literature review and emerging frameworks
- Title(参考訳): AIを利用した合成生物学の実践的ガバナンス課題:文献レビューと新たなフレームワーク
- Authors: Trond Arne Undheim
- Abstract要約: AIによる合成生物学は、大きな可能性を秘めているが、バイオリスクも著しく増大している。
将来のAIによるバイオハザードの予防と緩和を可能にする早期警戒システムを実現するには、常に進化する必要がある。
生成AIによって実現されたチャットボットの最近の進歩は、高度な生物学的洞察が悪性個人や組織の手に入りやすいという懸念を復活させた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI-enabled synthetic biology has tremendous potential but also significantly
increases biorisks and brings about a new set of dual use concerns. The picture
is complicated given the vast innovations envisioned to emerge by combining
emerging technologies, as AI-enabled synthetic biology potentially scales up
bioengineering into industrial biomanufacturing. However, the literature review
indicates that goals such as maintaining a reasonable scope for innovation, or
more ambitiously to foster a huge bioeconomy don't necessarily contrast with
biosafety, but need to go hand in hand. This paper presents a literature review
of the issues and describes emerging frameworks for policy and practice that
transverse the options of command-and control, stewardship, bottom-up, and
laissez-faire governance. How to achieve early warning systems that enable
prevention and mitigation of future AI-enabled biohazards from the lab, from
deliberate misuse, or from the public realm, will constantly need to evolve,
and adaptive, interactive approaches should emerge. Although biorisk is subject
to an established governance regime, and scientists generally adhere to
biosafety protocols, even experimental, but legitimate use by scientists could
lead to unexpected developments. Recent advances in chatbots enabled by
generative AI have revived fears that advanced biological insight can more
easily get into the hands of malignant individuals or organizations. Given
these sets of issues, society needs to rethink how AI-enabled synthetic biology
should be governed. The suggested way to visualize the challenge at hand is
whack-a-mole governance, although the emerging solutions are perhaps not so
different either.
- Abstract(参考訳): AIを利用する合成生物学は、大きな可能性を秘めているが、バイオリスクを著しく増加させ、新しい二重利用の懸念をもたらす。
AIを利用する合成生物学は、バイオエンジニアリングを工業的バイオ製造にスケールアップする可能性がある。
しかし、文献レビューでは、イノベーションのための合理的なスコープを維持することや、大規模なバイオエコノミーを育むという目標が、必ずしもバイオセーフティとは対照的ではなく、手を取り合う必要があることを示している。
本稿では,この問題に関する文献レビューを行い,指揮統制,スチュワードシップ,ボトムアップ,laissez-faireガバナンスの選択肢を横断する,新たな政策・実践の枠組みについて述べる。
今後のAIによるバイオハザード(生物ハザード)の予防と緩和を可能にする早期警戒システムを実現するには、故意の誤用や公的な領域から、常に進化し、適応的で対話的なアプローチが現れる必要がある。
バイオリスクは確立された統治体制の対象となるが、科学者は一般的にバイオセーフティプロトコルに固執するが、実験的でも正当な使用は科学者が予期せぬ発展を導く可能性がある。
生成AIによって実現されたチャットボットの最近の進歩は、高度な生物学的洞察が悪性個人や組織の手に入りやすいという懸念を復活させた。
これらの問題の集合を考えると、社会はAIによる合成生物学をどのように管理するかを再考する必要がある。
課題を視覚化する方法として提案されているのは、ムダなガバナンスだが、新興のソリューションもおそらくそれほど変わらないだろう。
関連論文リスト
- Prioritizing High-Consequence Biological Capabilities in Evaluations of Artificial Intelligence Models [0.0]
AI評価モデルは、高頻度リスクへの対処を優先すべきである、と我々は主張する。
これらのリスクは、パンデミックなど、大衆に大規模な被害をもたらす可能性がある。
二重用途の生物学的リスクを特定し緩和する科学者の経験は、生物学的AIモデルを評価するための新しいアプローチに役立ちます。
論文 参考訳(メタデータ) (2024-05-25T16:29:17Z) - Biospheric AI [0.0]
我々は、エコセントリックな視点を前提とした新しいパラダイムであるバイオスフェアAIを提案する。
この研究は、AIとバイオスフィアの相互作用に焦点を当てた包括的な研究プログラムへの第一歩を踏み出そうとする。
論文 参考訳(メタデータ) (2024-01-31T13:04:34Z) - Towards Risk Analysis of the Impact of AI on the Deliberate Biological Threat Landscape [0.0]
生物工学と人工知能の融合によって生物リスクが増大する可能性があるという認識は、バイオテクノロジーと人工知能のガバナンスに注意を向けている。
2023年、人工知能の安全、安全、信頼に足る開発と利用に関する執行命令は、人工知能がバイオリスクをいかに高めるかを評価する必要がある。
この視点は、評価手法と評価手法が、生命科学におけるAIの進歩に追随しなければならないことを指摘して結論付けている。
論文 参考訳(メタデータ) (2024-01-23T13:35:16Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - The Future of Fundamental Science Led by Generative Closed-Loop
Artificial Intelligence [67.70415658080121]
機械学習とAIの最近の進歩は、技術革新、製品開発、社会全体を破壊している。
AIは、科学的な実践とモデル発見のための高品質なデータの大規模なデータセットへのアクセスがより困難であるため、基礎科学にはあまり貢献していない。
ここでは、科学的な発見に対するAI駆動、自動化、クローズドループアプローチの側面を調査し、調査する。
論文 参考訳(メタデータ) (2023-07-09T21:16:56Z) - Developing an NLP-based Recommender System for the Ethical, Legal, and
Social Implications of Synthetic Biology [0.0]
合成生物学は、食品の安全、健康、環境保護などの目的のために生物を工学的に再設計することを含む。
研究者や政策立案者には倫理的、法的、社会的な意味合い(ELSI)が多数ある。
社会科学者や倫理学者を合成生物学プロジェクトへ組み込む様々な努力が試みられている。
このテキストは異なるアプローチを提案し、自然言語処理(NLP)に基づいた優れたレコメンデーターモデルを開発し、合成生物学者と特定の研究のELSIに関する情報を結びつけることは可能か?
論文 参考訳(メタデータ) (2022-07-10T20:18:53Z) - Seeing biodiversity: perspectives in machine learning for wildlife
conservation [49.15793025634011]
機械学習は、野生生物種の理解、モニタリング能力、保存性を高めるために、この分析的な課題を満たすことができると我々は主張する。
本質的に、新しい機械学習アプローチとエコロジー分野の知識を組み合わせることで、動物生態学者は現代のセンサー技術が生み出すデータの豊富さを生かすことができる。
論文 参考訳(メタデータ) (2021-10-25T13:40:36Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。