論文の概要: Anticipatory Ethics and the Role of Uncertainty
- arxiv url: http://arxiv.org/abs/2011.13170v1
- Date: Thu, 26 Nov 2020 08:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 22:53:01.314378
- Title: Anticipatory Ethics and the Role of Uncertainty
- Title(参考訳): 予測倫理と不確実性の役割
- Authors: Priyanka Nanayakkara, Nicholas Diakopoulos, Jessica Hullman
- Abstract要約: 我々は、将来の成果を予測倫理問題として検討する作業の枠組みを定めている。
目標は、妥当な結果とその倫理的意味を反映したシナリオを開発することである。
シナリオ構築プロセスで発生する不確実性のタイプを特徴づける。
- 参考スコア(独自算出の注目度): 23.3030110636071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Making conjectures about future consequences of a technology is an exercise
in trying to reduce various forms of uncertainty. Both to produce and reason
about these conjectures requires understanding their potential limitations. In
other words, we need systematic ways of considering uncertainty associated with
given conjectures for downstream consequences. In this work, we frame the task
of considering future consequences as an anticipatory ethics problem, where the
goal is to develop scenarios that reflect plausible outcomes and their ethical
implications following a technology's introduction into society. In order to
shed light on how various forms of uncertainty might inform how we reason about
a resulting scenario, we provide a characterization of the types of uncertainty
that arise in a potential scenario-building process.
- Abstract(参考訳): テクノロジーの将来的な影響を推測することは、様々な形の不確実性を減らそうとする試みである。
これらの予想の生成と推論には、それらの潜在的な限界を理解する必要がある。
言い換えれば、下流の結果に対する与えられた予想に関連する不確実性を考慮する体系的な方法が必要である。
本研究は, 将来的な影響を先験的倫理問題として捉え, 社会への技術導入にともない, 合理的な結果とその倫理的影響を反映したシナリオを開発することを目的とする。
様々な形の不確実性が、どのようにして結果のシナリオを理由付けるかを明らかにするために、潜在的なシナリオ構築プロセスで発生する不確実性のタイプを特徴づける。
関連論文リスト
- Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - System Theoretic View on Uncertainties [0.0]
本稿では,性能制限に対処するシステム理論アプローチを提案する。
我々は不確実性、すなわち知識の欠如に基づく分類を根本原因とする。
論文 参考訳(メタデータ) (2023-03-07T16:51:24Z) - Current and Near-Term AI as a Potential Existential Risk Factor [5.1806669555925975]
我々は、現在および短期的な人工知能技術が、現実的なリスクに寄与する可能性があるという考えを問題視する。
我々は、すでに文書化されているAIの効果が、実在するリスク要因として機能する、という仮説を提案する。
私たちの主な貢献は、潜在的なAIリスク要因とそれら間の因果関係の展示です。
論文 参考訳(メタデータ) (2022-09-21T18:56:14Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - AI Research Considerations for Human Existential Safety (ARCHES) [6.40842967242078]
負の言葉で言えば、我々は人類が次の世紀のAI開発から直面する現実的なリスクを問う。
Emphprepotenceという,仮説AI技術の鍵となる性質
その後、既存の安全に対する潜在的な利益のために、現代の研究方向の集合が検討される。
論文 参考訳(メタデータ) (2020-05-30T02:05:16Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。