論文の概要: Resisting AI Solutionism through Workplace Collective Action
- arxiv url: http://arxiv.org/abs/2508.08313v1
- Date: Sat, 09 Aug 2025 01:07:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.165424
- Title: Resisting AI Solutionism through Workplace Collective Action
- Title(参考訳): Workplace Collective ActionによるAIソリューションのレジストレーション
- Authors: Kevin Zheng, Linda Huber, Aaron Stark, Nathan Kim, Francesca Lameiro, Wells Lucas Santo, Shreya Chowdhary, Eugene Kim, Justine Zhang,
- Abstract要約: 2024年秋から、ミシガン大学におけるAI対応労働代替の不安定さと脅威に直面する中で、労働者と学生のグループが「AI抵抗」プロジェクトについて協力してきた。
このワークショップでは、これまで採用してきた戦略、集団的抵抗への挑戦、大学内のAIに抵抗する労働者としての私たちの役割について、私たちのリフレクションを取り入れています。
この研究の目的は、技術者、学生、そして彼らの大学におけるAIテクノソリューション主義に抵抗しようとするスタッフに対して、具体的なインスピレーションを提供することです。
- 参考スコア(独自算出の注目度): 1.931650367073157
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the face of increasing austerity and threats of AI-enabled labor replacement at the University of Michigan, a group of workers and students have coalesced around the project of "AI resistance" since Fall 2024. Forming a cross-departmental coalition including librarians, faculty, staff, graduate workers, and undergraduate students, we have hosted a public workshop questioning the techno-deterministic inevitability of AI use at the University and are working with other campus organizations to maintain an ongoing organizing space. This workshop submission incorporates our reflections thus far on the strategies we've employed, the challenges to collective resistance, and our role as workers in resisting AI within the University. Our aim for this work is to provide concrete inspiration for technologists, students, and staff looking to resist AI techno-solutionism within their own universities.
- Abstract(参考訳): 2024年秋から、ミシガン大学におけるAI対応労働代替の不安定さと脅威に直面する中で、労働者と学生のグループが「AI抵抗」プロジェクトについて協力してきた。
図書館員、教員、職員、大学院生、大学生を含む横断的な連立を組織し、我々は、大学でAI利用の技術的決定論的不可避性に疑問を呈する公開ワークショップを開催し、他のキャンパス組織と協力して、現在進行中の組織空間を維持している。
このワークショップでは、これまで採用してきた戦略、集団的抵抗への挑戦、大学内のAIに抵抗する労働者としての私たちの役割について、私たちのリフレクションを取り入れています。
この研究の目的は、技術者、学生、そして彼らの大学におけるAIテクノソリューション主義に抵抗しようとするスタッフに対して、具体的なインスピレーションを提供することです。
関連論文リスト
- A roadmap for AI in robotics [55.87087746398059]
AIの可能性を生かして、私たちの日常生活にロボットを配備する上での、際立った障壁に取り組みたいと考えています。
この記事では、1990年代からロボット工学におけるAIが達成したことを評価し、課題と約束を列挙した短期的・中期的な研究ロードマップを提案する。
論文 参考訳(メタデータ) (2025-07-26T15:18:28Z) - Operationalizing AI for Good: Spotlight on Deployment and Integration of AI Models in Humanitarian Work [52.96150571365764]
人道的・人道的組織(H2H)との密接なコラボレーションの詳細を共有します。
リソース制約のある環境でAIモデルをデプロイする方法、継続的なパフォーマンスアップデートのためにそのメンテナンス方法について論じる。
論文 参考訳(メタデータ) (2025-07-21T17:30:38Z) - Unraveling Human-AI Teaming: A Review and Outlook [2.3396455015352258]
人工知能(AI)は前例のないペースで進歩しており、意思決定と生産性を高める可能性がある。
しかし、人間とAIの協調的な意思決定プロセスはまだ未開発であり、しばしばその変革の可能性に欠ける。
本稿では,AIエージェントの受動的ツールから,複雑な環境下での学習,適応,自律的な運用能力を強調した,人間-AIチームの積極的な協力者への進化について考察する。
論文 参考訳(メタデータ) (2025-04-08T07:37:25Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Reconfiguring Participatory Design to Resist AI Realism [1.0878040851638]
本稿では,参加型デザインがAIリアリズムに疑問を呈し抵抗する役割を担っていることを論じる。
AIリアリズムの3つの側面について検討する:真のエンパワーメントを欠く民主化のファサード、人間の適応性への要求、AIシステムを実現する必要不可欠な人的労働の難しさ。
PDを再構成して価値中心のビジョンへの関与を継続し、AI以外の選択肢を探究し、AIシステムを目に見えるものにすることで、AIリアリズムに抵抗することを提案する。
論文 参考訳(メタデータ) (2024-06-05T13:21:46Z) - Brief for the Canada House of Commons Study on the Implications of
Artificial Intelligence Technologies for the Canadian Labor Force: Generative
Artificial Intelligence Shatters Models of AI and Labor [1.0878040851638]
過去の技術と同様に、生成的AIは大量失業に繋がらないかもしれない。
生成AIは創造的で認知的で、潜在的にユビキタスである。
AIのフルセットの能力とアプリケーションが出現するにつれて、政策立案者は労働者のキャリア適応性を促進するべきである。
論文 参考訳(メタデータ) (2023-11-06T22:58:24Z) - Assigning AI: Seven Approaches for Students, with Prompts [0.0]
本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-13T03:36:36Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。