論文の概要: Accountability in an Algorithmic Society: Relationality, Responsibility,
and Robustness in Machine Learning
- arxiv url: http://arxiv.org/abs/2202.05338v3
- Date: Fri, 13 May 2022 23:55:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:50:28.029681
- Title: Accountability in an Algorithmic Society: Relationality, Responsibility,
and Robustness in Machine Learning
- Title(参考訳): アルゴリズム社会における説明責任:機械学習における関係性、責任性、ロバスト性
- Authors: A. Feder Cooper and Emanuel Moss and Benjamin Laufer and Helen
Nissenbaum
- Abstract要約: 1996年、Nissenbaumは、社会における説明責任の侵食について、コンピュータ化されたシステムへの連続関数のユビキタスな委任による宣言を発した。
我々は、データ駆動型アルゴリズムシステムの上昇に関連して、Nissenbaum氏の論文を再考する。
本稿では,データ駆動型アルゴリズムシステムにおいて,一貫したモラル・リレーショナル・フレームワークを実現する上で,障壁がいかに困難であるかを論じる。
- 参考スコア(独自算出の注目度): 4.958893997693021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 1996, Accountability in a Computerized Society [95] issued a clarion call
concerning the erosion of accountability in society due to the ubiquitous
delegation of consequential functions to computerized systems. Nissenbaum [95]
described four barriers to accountability that computerization presented, which
we revisit in relation to the ascendance of data-driven algorithmic
systems--i.e., machine learning or artificial intelligence--to uncover new
challenges for accountability that these systems present. Nissenbaum's original
paper grounded discussion of the barriers in moral philosophy; we bring this
analysis together with recent scholarship on relational accountability
frameworks and discuss how the barriers present difficulties for instantiating
a unified moral, relational framework in practice for data-driven algorithmic
systems. We conclude by discussing ways of weakening the barriers in order to
do so.
- Abstract(参考訳): 1996年,コンピュータ社会におけるアカウンタビリティ [95] は,コンピュータシステムへの連続関数のユビキタスな委譲による社会におけるカウンタビリティの侵食に関する宣言を発した。
Nissenbaum [95]は、コンピュータ化が提示した説明責任に対する4つの障壁について説明した。
nissenbaum氏の最初の論文は、モラル哲学の障壁に関する議論を基礎としている。我々はこの分析を、最近の関係説明責任フレームワークに関する奨学金とともに、データ駆動アルゴリズムシステムで実践される統合モラル、リレーショナルフレームワークのインスタンス化がいかに困難であるかを議論する。
我々は、それをするために障壁を弱める方法を議論することで締めくくります。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Unraveling the Nuances of AI Accountability: A Synthesis of Dimensions Across Disciplines [0.0]
我々は、複数の分野にわたる現在の研究をレビューし、AIの文脈における説明責任の重要な側面を特定する。
13の次元と追加の説明責任ファシリテータを持つ6つのテーマを明らかにする。
論文 参考訳(メタデータ) (2024-10-05T18:08:39Z) - Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability [13.343937277604892]
AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-25T18:11:03Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - Quantum-Inspired Analysis of Neural Network Vulnerabilities: The Role of
Conjugate Variables in System Attacks [54.565579874913816]
ニューラルネットワークは、敵の攻撃として現れる小さな非ランダムな摂動に固有の脆弱性を示す。
この機構と量子物理学の不確実性原理の間に数学的に一致し、予想外の学際性に光を当てる。
論文 参考訳(メタデータ) (2024-02-16T02:11:27Z) - Causal Reinforcement Learning: A Survey [57.368108154871]
強化学習は、不確実性の下でのシーケンシャルな決定問題の解決に不可欠なパラダイムである。
主な障害の1つは、強化学習エージェントが世界に対する根本的な理解を欠いていることである。
因果性は、体系的な方法で知識を形式化できるという点で顕著な利点がある。
論文 参考訳(メタデータ) (2023-07-04T03:00:43Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Making the Unaccountable Internet: The Changing Meaning of Accounting in
the Early ARPANET [2.6397379133308214]
本稿では、技術的に不可欠な説明責任概念の批判と、意図しない結果として「非可算インターネット」の特性について述べる。
1970年代から80年代にかけて、初期のインターネットの設計に関するコメントのコーパスとして、会計の意味の変化と説明責任との関係について検討している。
論文 参考訳(メタデータ) (2022-01-28T01:42:58Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - A machine-learning software-systems approach to capture social,
regulatory, governance, and climate problems [0.0]
本研究は、社会協力型経済集団における国民人口の定量化、社会協力型経済集団における公共満足度、規制命題、ガバナンス効果ドメインといった真の手段として、批判に基づく暗黙的な組織化、および、並列的な政府政策と同期して展開される本質的に必要な装置として、人工的知性コンピュータシステムの役割について論じる。
論文 参考訳(メタデータ) (2020-02-23T13:00:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。