論文の概要: In Oxford Handbook on AI Governance: The Role of Workers in AI Ethics
and Governance
- arxiv url: http://arxiv.org/abs/2108.07700v1
- Date: Thu, 5 Aug 2021 13:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 06:56:49.571369
- Title: In Oxford Handbook on AI Governance: The Role of Workers in AI Ethics
and Governance
- Title(参考訳): AIガバナンスに関するオックスフォードのハンドブック:AI倫理とガバナンスにおける労働者の役割
- Authors: Nataliya Nedzhvetskaya and JS Tan
- Abstract要約: この章は、労働者がAI技術による害を特定し緩和する役割について考察する。
AI倫理コミュニティには、害の軽減のメリットに関するコンセンサスが高いが、害の判定や対処のメカニズムに関するコンセンサスは少ない。
この章では、労働者がAIシステムによって引き起こされる害を特定し緩和する上で、ユニークな役割を担っていると論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While the role of states, corporations, and international organizations in AI
governance has been extensively theorized, the role of workers has received
comparatively little attention. This chapter looks at the role that workers
play in identifying and mitigating harms from AI technologies. Harms are the
causally assessed impacts of technologies. They arise despite technical
reliability and are not a result of technical negligence but rather of
normative uncertainty around questions of safety and fairness in complex social
systems. There is high consensus in the AI ethics community on the benefits of
reducing harms but less consensus on mechanisms for determining or addressing
harms. This lack of consensus has resulted in a number of collective actions by
workers protesting how harms are identified and addressed in their workplace.
We theorize the role of workers within AI governance and construct a model of
harm reporting processes in AI workplaces. The harm reporting process involves
three steps, identification, the governance decision, and the response. Workers
draw upon three types of claims to argue for jurisdiction over questions of AI
governance, subjection, control over the product of labor, and proximate
knowledge of systems. Examining the past decade of AI related worker activism
allows us to understand how different types of workers are positioned within a
workplace that produces AI systems, how their position informs their claims,
and the place of collective action in staking their claims. This chapter argues
that workers occupy a unique role in identifying and mitigating harms caused by
AI systems.
- Abstract(参考訳): AIガバナンスにおける国家、企業、国際機関の役割は広く理論化されているが、労働者の役割は比較的ほとんど注目されていない。
この章は、労働者がAI技術による害を特定し緩和する役割について考察する。
ハームはテクノロジーの因果的影響である。
技術的信頼性に反し、技術的怠慢の結果ではなく、複雑な社会システムにおける安全性と公正性の疑問に関する規範的不確実性によるものである。
AI倫理コミュニティには、害の軽減のメリットに関するコンセンサスが高いが、害の決定や対処のメカニズムに関するコンセンサスも少ない。
この合意の欠如は、職場での有害行為の特定や対処に抗議する労働者による集団的行動に繋がった。
我々は、AIガバナンスにおける労働者の役割を理論化し、AI職場における害報告プロセスのモデルを構築します。
harmレポートプロセスには、識別、ガバナンス決定、応答という3つのステップがある。
労働者は、AIガバナンス、主観性、労働の産物の制御、システムに関する親密な知識に関する司法権を主張する3つのタイプの主張を引き合いに出している。
AI関連の労働者活動の過去10年間を観察することで、さまざまなタイプの労働者が、AIシステムを生成する職場にどのように配置されているか、彼らの立場が彼らの主張をどう伝えるか、そして彼らの主張を盗むための集団行動の場所を理解することができます。
この章では、労働者がAIシステムによって引き起こされる害を特定し緩和する上で、ユニークな役割を担っていると論じている。
関連論文リスト
- Exploiting the Margin: How Capitalism Fuels AI at the Expense of
Minoritized Groups [0.0]
本稿では、資本主義、人種抑圧、人工知能(AI)の複雑なネクサスについて考察する。
この研究は、資本主義的な実践を通じて、地域社会の歴史的搾取を追跡することによって、AI技術がどのように社会的偏見を反映し、増幅しているかを示す。
この記事では、AI開発に責任を負うための継続的な取り組みが紹介されている。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Commercial AI, Conflict, and Moral Responsibility: A theoretical
analysis and practical approach to the moral responsibilities associated with
dual-use AI technology [2.050345881732981]
AIシステムのライフサイクルに関わるステークホルダは、合理的に予測可能なシステムの利用に対して道徳的に責任がある、と私たちは主張する。
我々は、市民AIの開発者が道徳的責任を軽減できるように、技術的に実現可能な3つのアクションを提示します。
論文 参考訳(メタデータ) (2024-01-30T18:09:45Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - What's my role? Modelling responsibility for AI-based safety-critical
systems [1.0549609328807565]
開発者や製造業者は、AI-SCSの有害な振る舞いに責任を負うことは困難である。
人間のオペレータは、作成に責任を負わなかったAI-SCS出力の結果に責任を負う"信頼性シンク"になる可能性がある。
本稿では,異なる責任感(ロール,モラル,法的,因果関係)と,それらがAI-SCSの安全性の文脈でどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-12-30T13:45:36Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Future of Work Is Here: Toward a Comprehensive Approach to
Artificial Intelligence and Labour [0.0]
AIと労働に関する現在の議論は、これらのテクノロジを職場に展開することに焦点を当てている、と氏は主張する。
それは、より包括的な倫理的原則と規則を提供するために、労働条件に既存の人権枠組みを使用することを推奨している。
論文 参考訳(メタデータ) (2020-07-11T19:50:36Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。