論文の概要: Overcoming Failures of Imagination in AI Infused System Development and
Deployment
- arxiv url: http://arxiv.org/abs/2011.13416v3
- Date: Thu, 10 Dec 2020 08:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-22 22:34:14.224775
- Title: Overcoming Failures of Imagination in AI Infused System Development and
Deployment
- Title(参考訳): AIを用いたシステム開発とデプロイにおけるイマジネーションの失敗の克服
- Authors: Margarita Boyarskaya, Alexandra Olteanu, Kate Crawford
- Abstract要約: NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
- 参考スコア(独自算出の注目度): 71.9309995623067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: NeurIPS 2020 requested that research paper submissions include impact
statements on "potential nefarious uses and the consequences of failure."
However, as researchers, practitioners and system designers, a key challenge to
anticipating risks is overcoming what Clarke (1962) called 'failures of
imagination.' The growing research on bias, fairness, and transparency in
computational systems aims to illuminate and mitigate harms, and could thus
help inform reflections on possible negative impacts of particular pieces of
technical work. The prevalent notion of computational harms -- narrowly
construed as either allocational or representational harms -- does not fully
capture the open, context dependent, and unobservable nature of harms across
the wide range of AI infused systems.The current literature focuses on a small
range of examples of harms to motivate algorithmic fixes, overlooking the wider
scope of probable harms and the way these harms might affect different
stakeholders. The system affordances may also exacerbate harms in unpredictable
ways, as they determine stakeholders' control(including of non-users) over how
they use and interact with a system output. To effectively assist in
anticipating harmful uses, we argue that frameworks of harms must be
context-aware and consider a wider range of potential stakeholders, system
affordances, as well as viable proxies for assessing harms in the widest sense.
- Abstract(参考訳): NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
しかし、研究者、実践家、システムデザイナーとして、リスクを予想する上で重要な課題は、クラーク(1962年)が「想像力不足」と呼んだものを克服することである。
計算システムにおけるバイアス、公平性、透明性に関する研究は、害を照らし緩和することを目的としており、それによって特定の技術的作業のネガティブな影響についてリフレクションを伝えるのに役立つ。
計算的危害(computation harms)という一般的な概念は、アロケーション的あるいは表現的危害(representational harms)として狭義に解釈されているが、aiが注入する幅広いシステムにおいて、害のオープン、コンテキスト依存、および観測不能な性質を完全に捉えていない。
システムアフォーアンスはまた、システムアウトプットの使用方法や操作方法に対するステークホルダーのコントロール(非ユーザを含む)を決定するため、予測不能な方法で損害を悪化させる可能性がある。
有害な使用を効果的に予測するためには、害の枠組みは文脈に配慮し、潜在的利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要がある。
関連論文リスト
- Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - The Reasoning Under Uncertainty Trap: A Structural AI Risk [0.0]
RUUを人間と機械の両方にとって困難なものにしているのは、レポートにある。
この誤用リスクが、基盤となる構造的リスクのネットワークとどのように結びつくのかを詳述する。
論文 参考訳(メタデータ) (2024-01-29T17:16:57Z) - A Framework for Exploring the Consequences of AI-Mediated Enterprise Knowledge Access and Identifying Risks to Workers [3.4568218861862556]
本稿では、AIを利用した企業知識アクセスシステムから労働者のリスクを特定するためのConsequence-Mechanism-Riskフレームワークを提案する。
我々は、労働者に対するリスクを詳述した幅広い文献を執筆し、労働者の価値、力、幸福に対するリスクを分類した。
今後の作業は、この枠組みを他の技術システムに適用し、労働者や他のグループの保護を促進する可能性がある。
論文 参考訳(メタデータ) (2023-12-08T17:05:40Z) - Harms from Increasingly Agentic Algorithmic Systems [21.613581713046464]
公正性、説明責任、透明性、倫理(FATE)の研究は、多くのアルゴリズム的害の源泉と形態を確立している。
継続的な被害にもかかわらず、同じ害の永続性を脅かす新しいシステムが開発され、展開されている。
論文 参考訳(メタデータ) (2023-02-20T21:42:41Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Unpacking the Expressed Consequences of AI Research in Broader Impact
Statements [23.3030110636071]
本稿では,2020 Neural Information Processing Systems カンファレンスで記述された文のサンプルのテーマ分析の結果を紹介する。
私たちが特定するテーマは、結果の表現方法と影響の領域に関連するカテゴリに分類されます。
結果を踏まえて、将来のイテレーションでより広範なインパクトステートメントをどのように実装して、潜在的な目標とよりよく一致させることができるか、という視点を提供します。
論文 参考訳(メタデータ) (2021-05-11T02:57:39Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Avoiding Negative Side Effects due to Incomplete Knowledge of AI Systems [35.763408055286355]
エージェントの行動の負の副作用を認識して回避する学習は、自律システムの安全性と信頼性を向上させるために重要である。
ネガティブな副作用の緩和は、AIシステムの展開が急速に増加しているために注目が集まっている、新たな研究トピックである。
本稿は、様々な形態の負の副作用と、それらに対処する最近の研究成果について概説する。
論文 参考訳(メタデータ) (2020-08-24T16:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。