論文の概要: What are the odds? Risk and uncertainty about AI existential risk
- arxiv url: http://arxiv.org/abs/2510.23453v1
- Date: Mon, 27 Oct 2025 15:53:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.599654
- Title: What are the odds? Risk and uncertainty about AI existential risk
- Title(参考訳): 確率は何か?AI存在リスクのリスクと不確実性
- Authors: Marco Grossi,
- Abstract要約: しかし、これは単なる注釈ではなく、リスクのサリナーモデルの哲学的限界を思い出すのに役立つ。
リスクと不確実性を区別し、P(D) の任意の推定は2種類の不確実性によって構造的に影響を受けると論じます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work is a commentary of the article \href{https://doi.org/10.18716/ojs/phai/2025.2801}{AI Survival Stories: a Taxonomic Analysis of AI Existential Risk} by Cappelen, Goldstein, and Hawthorne. It is not just a commentary though, but a useful reminder of the philosophical limitations of \say{linear} models of risk. The article will focus on the model employed by the authors: first, I discuss some differences between standard Swiss Cheese models and this one. I then argue that in a situation of epistemic indifference the probability of P(D) is higher than what one might first suggest, given the structural relationships between layers. I then distinguish between risk and uncertainty, and argue that any estimation of P(D) is structurally affected by two kinds of uncertainty: option uncertainty and state-space uncertainty. Incorporating these dimensions of uncertainty into our qualitative discussion on AI existential risk can provide a better understanding of the likeliness of P(D).
- Abstract(参考訳): この研究は、Cappelen, Goldstein, Hawthorneによる記事 \href{https://doi.org/10.18716/ojs/phai/2025.2801}{AI Survival Stories: a Taxonomic Analysis of AI Existential Risk} の注釈である。
しかしこれは単なる注釈ではなく、リスクの‘say{linear}モデル’の哲学的限界を思い出すのに役立つ。
まず、標準スイスチーズモデルとこれとの違いについて論じます。
次に、疫学的な偏見の状況では、P(D) の確率は層間の構造的関係を考えると、最初に示唆されるものよりも高いと論じる。
次に、リスクと不確実性を区別し、P(D) の任意の推定は、オプションの不確実性と状態空間の不確実性という2つの種類の不確実性によって構造的に影響を受けると論じます。
これらの不確実性の次元をAI存在リスクに関する質的な議論に組み込むことで、P(D)の類似性をよりよく理解することができる。
関連論文リスト
- Can a Bayesian Oracle Prevent Harm from an Agent? [48.12936383352277]
我々は、所定の安全仕様に違反する確率に基づいて、文脈依存境界を推定することを検討する。
世界の異なる仮説が全く異なる結果をもたらす可能性があることに注意し、我々は真だが未知の仮説の下で予測される安全違反の確率に基づいて導かれる。
我々は、この結果の2つの形態、すなわち、i.d.の場合と非i.d.の場合を考察し、そのような理論結果を実用的なAIガードレールに変換するためのオープンな問題で結論付ける。
論文 参考訳(メタデータ) (2024-08-09T18:10:42Z) - Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Two Types of AI Existential Risk: Decisive and Accumulative [3.5051464966389116]
本稿では,従来の「決定型AI x-リスク仮説」と「累積型AI x-リスク仮説」を対比する。
累積的な視点は、AIリスクに関する一見互換性のない視点を調整できる、と氏は主張する。
論文 参考訳(メタデータ) (2024-01-15T17:06:02Z) - Decision-Making Under Uncertainty: Beyond Probabilities [5.358161704743754]
古典的な仮定は、確率はシステムの不確実性をすべて十分に捉えることができるというものである。
本稿では、この古典的解釈を超える不確実性に焦点を当てる。
離散モデルと連続モデルの両方に対していくつかの解法を示す。
論文 参考訳(メタデータ) (2023-03-10T10:53:33Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - An Imprecise Probability Approach for Abstract Argumentation based on
Credal Sets [1.3764085113103217]
我々は,議論の確率値が不正確であることを考慮し,拡張の不確かさの度合いを計算する問題に取り組む。
クレーダル集合を用いて議論の不確かさをモデル化し、これらのクレーダル集合から拡張の上下境界を計算する。
論文 参考訳(メタデータ) (2020-09-16T00:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。