論文の概要: Accountability in an Algorithmic Society: Relationality, Responsibility,
and Robustness in Machine Learning
- arxiv url: http://arxiv.org/abs/2202.05338v1
- Date: Thu, 10 Feb 2022 21:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 07:39:50.211348
- Title: Accountability in an Algorithmic Society: Relationality, Responsibility,
and Robustness in Machine Learning
- Title(参考訳): アルゴリズム社会における説明責任:機械学習における関係性、責任性、ロバスト性
- Authors: A. Feder Cooper and Benjamin Laufer and Emanuel Moss and Helen
Nissenbaum
- Abstract要約: 1996年、哲学者ヘレン・ニッセンバウム(Helen Nissenbaum)は社会における説明責任の侵食に関する宣言を発した。
我々は、コンピュータ化が提示した説明責任に対する4種類の障壁を再考する。
我々は、責任ある当事者が責任を負うための道徳的でリレーショナルな枠組みを構築し、正当化する方法を楽しみにしています。
- 参考スコア(独自算出の注目度): 4.958893997693021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 1996, philosopher Helen Nissenbaum issued a clarion call concerning the
erosion of accountability in society due to the ubiquitous delegation of
consequential functions to computerized systems. Using the conceptual framing
of moral blame, Nissenbaum described four types of barriers to accountability
that computerization presented: 1) "many hands," the problem of attributing
moral responsibility for outcomes caused by many moral actors; 2) "bugs," a way
software developers might shrug off responsibility by suggesting software
errors are unavoidable; 3) "computer as scapegoat," shifting blame to computer
systems as if they were moral actors; and 4) "ownership without liability," a
free pass to the tech industry to deny responsibility for the software they
produce. We revisit these four barriers in relation to the recent ascendance of
data-driven algorithmic systems--technology often folded under the heading of
machine learning (ML) or artificial intelligence (AI)--to uncover the new
challenges for accountability that these systems present. We then look ahead to
how one might construct and justify a moral, relational framework for holding
responsible parties accountable, and argue that the FAccT community is uniquely
well-positioned to develop such a framework to weaken the four barriers.
- Abstract(参考訳): 1996年、哲学者ヘレン・ニッセンバウム (Helen Nissenbaum) は、コンピュータシステムへの連続関数のユビキタスな委任による社会における説明責任の侵食に関する宣言を発した。
倫理的非難の概念的枠組みを用いて、ニッセンバウムはコンピュータ化が提示する説明責任に対する4種類の障壁について説明した。
1)「多くの手」は、多くのモラル俳優の成果に道徳的責任をもたらす問題である。
2) "バグ" – ソフトウェアのエラーは避けられない,という提案によって,ソフトウェア開発者の責任を削ぐ方法。
3)「スケープゴートとしてのコンピュータ」、モラルアクターであるかのようにコンピュータシステムに非難を移す
4)「責任のない所有者」は、生産するソフトウェアに対する責任を否定するテク業界への無料パスである。
データ駆動型アルゴリズムシステム - 機械学習(ML)や人工知能(AI)の指導の下でしばしば折り畳まれる技術 - の最近の進歩に関連して、これらの4つの障壁を再考し、これらのシステムが持つ説明責任に関する新たな課題を明らかにする。
次に、責任ある当事者を保持するための道徳的、関係性のあるフレームワークの構築と正当化について検討し、facctコミュニティが4つの障壁を弱めるようなフレームワークを開発するために一意に適していると論じる。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Unraveling the Nuances of AI Accountability: A Synthesis of Dimensions Across Disciplines [0.0]
我々は、複数の分野にわたる現在の研究をレビューし、AIの文脈における説明責任の重要な側面を特定する。
13の次元と追加の説明責任ファシリテータを持つ6つのテーマを明らかにする。
論文 参考訳(メタデータ) (2024-10-05T18:08:39Z) - Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability [13.343937277604892]
AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-25T18:11:03Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Making the Unaccountable Internet: The Changing Meaning of Accounting in
the Early ARPANET [2.6397379133308214]
本稿では、技術的に不可欠な説明責任概念の批判と、意図しない結果として「非可算インターネット」の特性について述べる。
1970年代から80年代にかけて、初期のインターネットの設計に関するコメントのコーパスとして、会計の意味の変化と説明責任との関係について検討している。
論文 参考訳(メタデータ) (2022-01-28T01:42:58Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - A machine-learning software-systems approach to capture social,
regulatory, governance, and climate problems [0.0]
本研究は、社会協力型経済集団における国民人口の定量化、社会協力型経済集団における公共満足度、規制命題、ガバナンス効果ドメインといった真の手段として、批判に基づく暗黙的な組織化、および、並列的な政府政策と同期して展開される本質的に必要な装置として、人工的知性コンピュータシステムの役割について論じる。
論文 参考訳(メタデータ) (2020-02-23T13:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。