論文の概要: In Oxford Handbook on AI Governance: The Role of Workers in AI Ethics
and Governance
- arxiv url: http://arxiv.org/abs/2108.07700v1
- Date: Thu, 5 Aug 2021 13:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 06:56:49.571369
- Title: In Oxford Handbook on AI Governance: The Role of Workers in AI Ethics
and Governance
- Title(参考訳): AIガバナンスに関するオックスフォードのハンドブック:AI倫理とガバナンスにおける労働者の役割
- Authors: Nataliya Nedzhvetskaya and JS Tan
- Abstract要約: この章は、労働者がAI技術による害を特定し緩和する役割について考察する。
AI倫理コミュニティには、害の軽減のメリットに関するコンセンサスが高いが、害の判定や対処のメカニズムに関するコンセンサスは少ない。
この章では、労働者がAIシステムによって引き起こされる害を特定し緩和する上で、ユニークな役割を担っていると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While the role of states, corporations, and international organizations in AI
governance has been extensively theorized, the role of workers has received
comparatively little attention. This chapter looks at the role that workers
play in identifying and mitigating harms from AI technologies. Harms are the
causally assessed impacts of technologies. They arise despite technical
reliability and are not a result of technical negligence but rather of
normative uncertainty around questions of safety and fairness in complex social
systems. There is high consensus in the AI ethics community on the benefits of
reducing harms but less consensus on mechanisms for determining or addressing
harms. This lack of consensus has resulted in a number of collective actions by
workers protesting how harms are identified and addressed in their workplace.
We theorize the role of workers within AI governance and construct a model of
harm reporting processes in AI workplaces. The harm reporting process involves
three steps, identification, the governance decision, and the response. Workers
draw upon three types of claims to argue for jurisdiction over questions of AI
governance, subjection, control over the product of labor, and proximate
knowledge of systems. Examining the past decade of AI related worker activism
allows us to understand how different types of workers are positioned within a
workplace that produces AI systems, how their position informs their claims,
and the place of collective action in staking their claims. This chapter argues
that workers occupy a unique role in identifying and mitigating harms caused by
AI systems.
- Abstract(参考訳): AIガバナンスにおける国家、企業、国際機関の役割は広く理論化されているが、労働者の役割は比較的ほとんど注目されていない。
この章は、労働者がAI技術による害を特定し緩和する役割について考察する。
ハームはテクノロジーの因果的影響である。
技術的信頼性に反し、技術的怠慢の結果ではなく、複雑な社会システムにおける安全性と公正性の疑問に関する規範的不確実性によるものである。
AI倫理コミュニティには、害の軽減のメリットに関するコンセンサスが高いが、害の決定や対処のメカニズムに関するコンセンサスも少ない。
この合意の欠如は、職場での有害行為の特定や対処に抗議する労働者による集団的行動に繋がった。
我々は、AIガバナンスにおける労働者の役割を理論化し、AI職場における害報告プロセスのモデルを構築します。
harmレポートプロセスには、識別、ガバナンス決定、応答という3つのステップがある。
労働者は、AIガバナンス、主観性、労働の産物の制御、システムに関する親密な知識に関する司法権を主張する3つのタイプの主張を引き合いに出している。
AI関連の労働者活動の過去10年間を観察することで、さまざまなタイプの労働者が、AIシステムを生成する職場にどのように配置されているか、彼らの立場が彼らの主張をどう伝えるか、そして彼らの主張を盗むための集団行動の場所を理解することができます。
この章では、労働者がAIシステムによって引き起こされる害を特定し緩和する上で、ユニークな役割を担っていると論じている。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Commercial AI, Conflict, and Moral Responsibility: A theoretical
analysis and practical approach to the moral responsibilities associated with
dual-use AI technology [2.050345881732981]
AIシステムのライフサイクルに関わるステークホルダは、合理的に予測可能なシステムの利用に対して道徳的に責任がある、と私たちは主張する。
我々は、市民AIの開発者が道徳的責任を軽減できるように、技術的に実現可能な3つのアクションを提示します。
論文 参考訳(メタデータ) (2024-01-30T18:09:45Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - The Future of Work Is Here: Toward a Comprehensive Approach to
Artificial Intelligence and Labour [0.0]
AIと労働に関する現在の議論は、これらのテクノロジを職場に展開することに焦点を当てている、と氏は主張する。
それは、より包括的な倫理的原則と規則を提供するために、労働条件に既存の人権枠組みを使用することを推奨している。
論文 参考訳(メタデータ) (2020-07-11T19:50:36Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。