論文の概要: Big Bang, Low Bar -- Risk Assessment in the Public Arena
- arxiv url: http://arxiv.org/abs/2308.04440v2
- Date: Thu, 19 Oct 2023 23:43:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 03:12:48.114329
- Title: Big Bang, Low Bar -- Risk Assessment in the Public Arena
- Title(参考訳): ビッグバンや低バー、公共の場におけるリスク評価
- Authors: Huw Price
- Abstract要約: 潜在的な失敗が悲惨なほど、それを安全に無視する前には、その必要がより不可能なものになる。
この原則は、リスクに関する世論では容易に見過ごされる。
失敗はこのケースに特有のものではないが、近年の議論は、この原則がいかに容易に見落とされ得るかを示す、特に顕著な例を提供している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the basic principles of risk management is that we should always keep
an eye on ways that things could go badly wrong, even if they seem unlikely.
The more disastrous a potential failure, the more improbable it needs to be,
before we can safely ignore it. This principle may seem obvious, but it is
easily overlooked in public discourse about risk, even by well-qualified
commentators who should certainly know better. The present piece is prompted by
neglect of the principle in recent discussions about the potential existential
risks of artificial intelligence. The failing is not peculiar to this case, but
recent debates in this area provide some particularly stark examples of how
easily the principle can be overlooked.
- Abstract(参考訳): リスク管理の基本的な原則の1つは、たとえありそうにないとしても、物事がひどい目に遭う可能性のある方法に常に目を向けるべきであるということです。
潜在的な失敗を悲惨なものにすればするほど、それを無視するより前に、その可能性は高くなります。
この原則は明白に思えるかもしれないが、リスクについて公の場での議論では容易に見過ごされ、確実によく知るべき適格なコメンテーターでさえも見過ごされる。
本論文は,人工知能の潜在的存在リスクに関する最近の議論において,この原則を無視することによるものである。
失敗はこのケースに特有のものではないが、近年の議論は、この原則がいかに容易に見落とされ得るかを示す、特に顕著な例を提供している。
関連論文リスト
- Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Can a Bayesian Oracle Prevent Harm from an Agent? [48.12936383352277]
我々は、所定の安全仕様に違反する確率に基づいて、文脈依存境界を推定することを検討する。
世界の異なる仮説が全く異なる結果をもたらす可能性があることに注意し、我々は真だが未知の仮説の下で予測される安全違反の確率に基づいて導かれる。
iidの場合と非idの場合の2つの形態を考察し、その結果を実用的なAIガードレールに変換するためのオープンな問題に結論付ける。
論文 参考訳(メタデータ) (2024-08-09T18:10:42Z) - Risk thresholds for frontier AI [1.053373860696675]
人気が高まっているアプローチの1つは、機能しきい値を定義することである。
リスク閾値は単に、どれだけのリスクが過剰かを記述するだけです。
主な欠点は、信頼性の高い評価が難しいことだ。
論文 参考訳(メタデータ) (2024-06-20T20:16:29Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Auditing Fairness under Unobserved Confounding [56.61738581796362]
リスクファクターがすべて観察されているという仮定を完全に取り除いたり緩和したりしても、ハイリスクな個人に治療率に有意義な限界を与えることができることを示す。
既存の意思決定システムの不公平な結果を原則的に評価することができる。
論文 参考訳(メタデータ) (2024-03-18T21:09:06Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Anticipatory Thinking Challenges in Open Worlds: Risk Management [7.820667552233988]
AIシステムが日々の生活の一部になるにつれ、彼らもリスクを管理し始めています。
低周波で高インパクトなリスクを識別し緩和する学習は、機械学習モデルをトレーニングするために必要な観察バイアスと相反する。
私たちのゴールは、オープンワールドと究極的には現実世界のリスクを管理するためにAIエージェントが必要とする予測思考を評価し改善するソリューションの研究を促進することです。
論文 参考訳(メタデータ) (2023-06-22T18:31:17Z) - A Manifold View of Adversarial Risk [23.011667845523267]
本研究は,2種類の新しい対向リスク,通常の方向に沿った摂動による通常の対向リスク,多様体内の摂動による対向リスクについて検討する。
通常のリスクと人的リスクの両方がゼロであっても、標準的な敵のリスクはゼロである可能性があるという悲観的なケースを示します。
論文 参考訳(メタデータ) (2022-03-24T18:11:21Z) - Learning to Be Cautious [71.9871661858886]
強化学習の分野における重要な課題は、新しい状況下で慎重に行動するエージェントを開発することである。
注意深い行動がますます不要になるタスクのシーケンスと、システムが注意深いことを実証するアルゴリズムを提示する。
論文 参考訳(メタデータ) (2021-10-29T16:52:45Z) - With False Friends Like These, Who Can Have Self-Knowledge? [26.582668429147777]
本稿では,過度な感度,すなわち誤分類例が容易に摂動できるという,興味深く,見過ごされがちな結果について考察する。
このような偽の友達があれば、パフォーマンスの悪いモデルは最先端のモデルのように振る舞うことができる。
デプロイ者が低臨界的なパフォーマンスを信頼し、実世界のアプリケーションで「よく機能する」モデルを使用すると、潜在的なセキュリティ上の懸念は良性のある環境でも現れます。
論文 参考訳(メタデータ) (2020-12-29T12:42:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。