論文の概要: Making AI Work: An Autoethnography of a Workaround in Higher Education
- arxiv url: http://arxiv.org/abs/2512.21055v1
- Date: Wed, 24 Dec 2025 08:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.742391
- Title: Making AI Work: An Autoethnography of a Workaround in Higher Education
- Title(参考訳): AIワークを実現する - 高等教育における回避策のオートエスノグラフィ
- Authors: Shang Chieh Lee, Bhuva Narayan, Simon Buckingham Shum, Stella Ng, A. Baki Kocaballi,
- Abstract要約: この研究は、ユーザ主導の回避策は、社会技術統合の不可欠な行為として理解されるべきである、と論じている。
複雑な組織政治において、GenAIを統合するために必要な目に見えない労働力は、実際にどのように機能するかという周辺的要素よりも、重要であることを示唆している。
- 参考スコア(独自算出の注目度): 2.8437067145252217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research on the implementation of Generative Artificial Intelligence (GenAI) in higher education often focuses on strategic goals, overlooking the hidden, and often politically charged, labour required to make it functional. This paper provides an insider's account of the sociotechnical friction that arises when an institutional goal of empowering non-technical staff conflicts with the technical limitations of enterprise Large Language Models (LLMs). Through analytic autoethnography, this study examines a GenAI project pushed to an impasse, focusing on a workaround developed to navigate not only technical constraints but also the combined challenge of organisational territoriality and assertions of positional power. Drawing upon Alter's (2014) theory of workarounds, the analysis interprets "articulation work" as a form of "invisible labour". By engaging with the Information Systems (IS) domains of user innovation and technology-in-practice, this study argues that such user-driven workarounds should be understood not as deviations, but as integral acts of sociotechnical integration. This integration, however, highlights the central paradoxes of modern GenAI where such workarounds for "unfinished" systems can simultaneously create unofficial "shadow" systems and obscure the crucial, yet invisible, sociotechnical labour involved. The findings suggest that the invisible labour required to integrate GenAI within complex organisational politics is an important, rather than peripheral, component of how it becomes functional in practice.
- Abstract(参考訳): 高等教育におけるジェネレーティブ・人工知能(GenAI)の実装に関する研究は、しばしば戦略目標に焦点を合わせ、それを機能させるために必要とされる、隠された、政治的に責任を負った労働力を見渡す。
本稿では,非技術スタッフの権限付与という制度的目標が,企業大規模言語モデル(LLM)の技術的制約と矛盾する場合に生じる社会技術的摩擦をインサイダーが説明する。
分析的自己エスノグラフィーを通じて、技術的制約だけでなく、組織的領域性の課題と位置的権限の主張を兼ね備えた回避策に焦点を当てたGenAIプロジェクトについて検討した。
アルター(2014年)のワークアラウンドの理論に基づいて、この分析は「不可視労働」の形式として「調停作業」を解釈している。
ユーザイノベーションとテクノロジー・イン・実践のIT(Information Systems)ドメインに係わることにより、このようなユーザ主導の回避策は逸脱ではなく、社会技術統合の不可欠な行為として理解されるべきである、と本研究は主張する。
しかし、この統合は「未完成」なシステムに対するこのような回避策が、非公式な「陰影」システムを同時に作成し、重要で目に見えない社会技術的労働を曖昧にする現代のGenAIの中心的パラドックスを強調している。
この結果から,GenAIを複雑な組織政治に組み込むために必要な目に見えない労働力は,実際にどのように機能するかという,周辺的ではなく,重要な要素であることが示唆された。
関連論文リスト
- The Workflow as Medium: A Framework for Navigating Human-AI Co-Creation [0.0]
クリエイティブインテリジェンスループ(CIL、Creative Intelligence Loop)は、人間とAIの共創に責任を負うための新しい社会技術フレームワークである。
CILは、多様なAIチームメイトの戦略的統合を導く、動的な人間-AIコラボレーションのための規律付き構造を提案する。
CILは、2つのグラフィックノベルラの実践による創造によって実証的に実証された。
論文 参考訳(メタデータ) (2025-11-22T20:36:13Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Enterprise Architecture as a Dynamic Capability for Scalable and Sustainable Generative AI adoption: Bridging Innovation and Governance in Large Organisations [55.2480439325792]
生成人工知能(Generative Artificial Intelligence)は、イノベーションを促進し、多くの産業におけるガバナンスを再形成する可能性を持つ強力な新技術である。
しかし、テクノロジの複雑さ、ガバナンスのギャップ、リソースのミスアライメントなど、GenAIをスケールする上で大きな課題に直面している。
本稿では、大企業におけるGenAI導入の複雑な要件をエンタープライズアーキテクチャ管理が満たす方法について検討する。
論文 参考訳(メタデータ) (2025-05-09T07:41:33Z) - Position Paper: Towards Open Complex Human-AI Agents Collaboration Systems for Problem Solving and Knowledge Management [0.15039745292757667]
我々は,Human-AI Agents Collaboration Systems(HAACS)のための技術に依存しない,コラボレーション可能なスタンスを提案する。
7次元のコラボスピンと人間とエージェントのコントラストを通して経験的なパターンを読み取ることで、欠落したピースを識別する。
アドホック接着剤を使わず,バイオサイバネティック拡張をスケッチすることなく,新たなエージェントプロトコルとの相互運用性を示す。
論文 参考訳(メタデータ) (2025-04-24T05:57:03Z) - Cutting Through the Confusion and Hype: Understanding the True Potential of Generative AI [0.0]
本稿では,生成型AI(genAI)の微妙な景観について考察する。
それは、Large Language Models (LLMs)のようなニューラルネットワークベースのモデルに焦点を当てている。
論文 参考訳(メタデータ) (2024-10-22T02:18:44Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Not a Swiss Army Knife: Academics' Perceptions of Trade-Offs Around Generative Artificial Intelligence Use [12.85888736626468]
我々は、教員や学生を含む17人の知識労働者にインタビューを行い、生成AI(Gen AI)の社会的・技術的側面について調査した。
参加者は、Gen AIのトレーニングに使用されるデータの不透明さに関する懸念を提起しました。
参加者は、学習プロセスを加速し、アクセス可能な研究アシスタントとして機能することで、Gen AIが知識を民主化する可能性を認識した。
論文 参考訳(メタデータ) (2024-05-02T04:25:35Z) - AutoML in The Wild: Obstacles, Workarounds, and Expectations [37.813441975457735]
本研究は,現実の実践においてユーザが遭遇するAutoMLの限界を理解することに焦点を当てる。
その結果,カスタマイズ性,透明性,プライバシーから生じる3つの大きな課題を克服するために,ユーザエージェンシーを積極的に実施していることが判明した。
論文 参考訳(メタデータ) (2023-02-21T17:06:46Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。