論文の概要: Nature and the Machines
- arxiv url: http://arxiv.org/abs/2308.04440v1
- Date: Sun, 23 Jul 2023 08:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 00:29:06.875294
- Title: Nature and the Machines
- Title(参考訳): 自然と機械
- Authors: Huw Price and Matthew Connolly
- Abstract要約: 自然は我々に明日のAIの運命について話すのをやめるよう促しました。
我々は、これは本質的な判断の重大な失敗であると主張する。
科学では、日常生活と同様に、影響力のある俳優が誤りの結果を考えることを期待する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Does artificial intelligence (AI) pose existential risks to humanity? Some
critics feel this question is getting too much attention, and want to push it
aside in favour of conversations about the immediate risks of AI. These critics
now include the journal Nature, where a recent editorial urges us to 'stop
talking about tomorrow's AI doomsday when AI poses risks today.' We argue that
this is a serious failure of judgement, on Nature's part. In science, as in
everyday life, we expect influential actors to consider the consequences of
error. As the world's leading scientific journal, Nature is certainly an
influential actor, especially so in the absence of robust global regulation of
AI. Yet it has manifestly failed to consider the cost of error in this case.
- Abstract(参考訳): 人工知能(AI)は人間に現実的なリスクをもたらすか?
一部の批評家は、この疑問があまりに注目を集めていると感じており、AIの即時的なリスクに関する議論を後押ししたいと考えている。
この雑誌では、最近の論説で「今日のAIがリスクを冒す明日のAIの運命について話すのをやめよう」と促されている。
我々は、これは本質的な判断の重大な失敗であると主張する。
科学では、日常生活と同様に、影響のある俳優が誤りの結果を考えることを期待する。
世界有数の科学雑誌として、自然は間違いなく影響力のある俳優であり、特にaiの堅牢な国際規制が欠如している。
しかし、このケースでエラーのコストを考慮できなかったことは明らかです。
関連論文リスト
- Near to Mid-term Risks and Opportunities of Open Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのGenerative AIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Auditing Fairness under Unobserved Confounding [56.61738581796362]
リスクファクターがすべて観察されているという仮定を完全に取り除いたり緩和したりしても、ハイリスクな個人に治療率に有意義な限界を与えることができることを示す。
既存の意思決定システムの不公平な結果を原則的に評価することができる。
論文 参考訳(メタデータ) (2024-03-18T21:09:06Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Anticipatory Thinking Challenges in Open Worlds: Risk Management [7.820667552233988]
AIシステムが日々の生活の一部になるにつれ、彼らもリスクを管理し始めています。
低周波で高インパクトなリスクを識別し緩和する学習は、機械学習モデルをトレーニングするために必要な観察バイアスと相反する。
私たちのゴールは、オープンワールドと究極的には現実世界のリスクを管理するためにAIエージェントが必要とする予測思考を評価し改善するソリューションの研究を促進することです。
論文 参考訳(メタデータ) (2023-06-22T18:31:17Z) - A Manifold View of Adversarial Risk [23.011667845523267]
本研究は,2種類の新しい対向リスク,通常の方向に沿った摂動による通常の対向リスク,多様体内の摂動による対向リスクについて検討する。
通常のリスクと人的リスクの両方がゼロであっても、標準的な敵のリスクはゼロである可能性があるという悲観的なケースを示します。
論文 参考訳(メタデータ) (2022-03-24T18:11:21Z) - Learning to Be Cautious [71.9871661858886]
強化学習の分野における重要な課題は、新しい状況下で慎重に行動するエージェントを開発することである。
注意深い行動がますます不要になるタスクのシーケンスと、システムが注意深いことを実証するアルゴリズムを提示する。
論文 参考訳(メタデータ) (2021-10-29T16:52:45Z) - With False Friends Like These, Who Can Have Self-Knowledge? [26.582668429147777]
本稿では,過度な感度,すなわち誤分類例が容易に摂動できるという,興味深く,見過ごされがちな結果について考察する。
このような偽の友達があれば、パフォーマンスの悪いモデルは最先端のモデルのように振る舞うことができる。
デプロイ者が低臨界的なパフォーマンスを信頼し、実世界のアプリケーションで「よく機能する」モデルを使用すると、潜在的なセキュリティ上の懸念は良性のある環境でも現れます。
論文 参考訳(メタデータ) (2020-12-29T12:42:36Z) - Risk-Monotonicity in Statistical Learning [8.461907111368628]
トレーニングにおけるリスクと不安定性の非単調な振る舞いが現れ、人気のあるディープラーニングパラダイムに現れている。
我々は、弱い仮定の下での一般統計学習のための最初の一貫した(高い確率で)リスク単調なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-11-28T12:52:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。