論文の概要: Power and Play: Investigating "License to Critique" in Teams' AI Ethics Discussions
- arxiv url: http://arxiv.org/abs/2403.19049v1
- Date: Wed, 27 Mar 2024 23:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 17:52:05.661898
- Title: Power and Play: Investigating "License to Critique" in Teams' AI Ethics Discussions
- Title(参考訳): パワーとプレイ - チームのAI倫理に関する議論で"批判へのリセンス"を探る
- Authors: David Gray Widder, Laura Dabbish, James Herbsleb, Nikolas Martelaro,
- Abstract要約: 本研究は, ディスカージカル・クロージャ(discursive closure)を規定する基準と, 権力関係が, 人々が批判を高めるかどうか, どのように影響するかを検討する。
私たちは、AI倫理に関する幅広い議論を呼び起こすように設計されたゲームをプレイします。
ゲームは製品やプラクティスへの直接的な変更を可能にすることはありそうにないが、メンバーが将来の集団行動に対して、批判的に整合した同盟者を見つけることは、よりありそうにない。
- 参考スコア(独自算出の注目度): 8.149400593848387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Past work has sought to design AI ethics interventions-such as checklists or toolkits-to help practitioners design more ethical AI systems. However, other work demonstrates how these interventions and the principles they're based on may serve to instead limit critique to those addressed within the intervention, while rendering broader concerns illegitimate. In this paper, drawing on work examining how standards enact discursive closure and how power relations affect whether and how people raise critique, we recruit three corporate teams, and one activist team, each with prior context working with one another, to play a game designed to trigger broad discussion around AI ethics. We use this as a point of contrast to trigger reflection on their teams' past discussions, examining factors which may affect their "license to critique" in AI ethics discussions. We then report on how particular affordances of this game may influence discussion, and find that the hypothetical context created in the game is unlikely to be a viable mechanism for real world change. We discuss how power dynamics within a group and notions of "scope" affect whether people may be willing to raise critique in AI ethics discussions, and discuss our finding that games are unlikely to enable direct changes to products or practice, but may be more likely to allow members to find critically-aligned allies for future collective action.
- Abstract(参考訳): 過去の研究は、実践者がより倫理的なAIシステムの設計を支援するために、チェックリストやツールキットのようなAI倫理の介入を設計しようとしてきた。
しかしながら、他の研究は、これらの介入とそれらに基づく原則が、代わりに介入の中で対処されるものに対する批判を制限する一方で、より広範な懸念を非合法に表現するのに役立つことを示している。
本稿では,AI倫理に関する幅広い議論の引き金となるゲームとして,標準がいかに反帰的クロージャを制定し,権力関係が人々が批判を提起するかどうか,どのように影響するかを検討するために,我々は3つのコーポレートチームと1つのアクティビストチームを採用する。
私たちはこれを、AI倫理に関する議論において、チームの過去の議論を反映させ、彼らの"批判に対するライセンス"に影響を与える可能性のある要因を調べるために、コントラストのポイントとして使用します。
次に、このゲームの特定の余裕が議論にどう影響するかを報告し、ゲーム内で発生した仮説的文脈が現実世界の変化の実行可能なメカニズムになりそうにないことを示す。
我々は、グループ内のパワーダイナミクスと「スコープ」の概念が、AI倫理に関する議論で批判を提起する意志があるかどうかを議論し、ゲームが製品やプラクティスに直接変更する可能性は低いが、メンバーが将来の集団行動に対して批判的に整合した同盟を見出すことが可能である、という私たちの発見について議論する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Epistemic Power in AI Ethics Labor: Legitimizing Located Complaints [0.7252027234425334]
本稿は,研究者,開発者,オープンソースコントリビュータ,活動家など75人の技術者へのインタビューに基づいている。
私は、AI倫理の実践が、自動化と定量化の権威にいかに到達したかを示します。
論文 参考訳(メタデータ) (2024-02-13T02:07:03Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Towards a Feminist Metaethics of AI [0.0]
これらの不足は、AIのフェミニスト的メタ倫理に関する研究アジェンダを開発することで緩和できると私は主張する。
この視点をAIの文脈に適用することにより、AIのフェミニスト的メタ倫理は、(i)AI倫理における理論と行動の間の連続性、(ii)AI倫理の現実的な影響、(iii)AI倫理に関わる人々の役割とプロファイル、(iv)文脈、感情、物語に注意を払う方法を通じて、AIが権力関係に与える影響を調べることを提案します。
論文 参考訳(メタデータ) (2023-11-10T13:26:45Z) - The Ethics of AI in Games [4.691076280925923]
ビデオゲームは、人間とコンピュータの相互作用の最も豊かで最も人気のある形態の1つである。
人工知能(AI)ツールがゲーム業界に徐々に採用されるにつれて、一連の倫理的懸念が生じる。
本稿では,今日のゲームと未来の仮想空間に対するオープンな対話とアクションを求める。
論文 参考訳(メタデータ) (2023-05-12T11:41:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Prismal view of ethics [0.0]
私たちは倫理をゲームに結びつけ、倫理のパフォーマンスについて話し、競争とコーディネートの間の相互作用に好奇心を取り入れたいと考えています。
この分析は、現代のAIシステムを人間社会に統合するためにAI倫理に使用されるかもしれないモデリングの側面を見つけるための第一歩である。
論文 参考訳(メタデータ) (2022-05-26T13:52:34Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。