論文の概要: AI LEGO: Scaffolding Cross-Functional Collaboration in Industrial Responsible AI Practices during Early Design Stages
- arxiv url: http://arxiv.org/abs/2505.10300v1
- Date: Thu, 15 May 2025 13:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.339278
- Title: AI LEGO: Scaffolding Cross-Functional Collaboration in Industrial Responsible AI Practices during Early Design Stages
- Title(参考訳): AI LEGO: 設計初期段階における産業責任AI実践におけるクロスファンクションコラボレーションの抑制
- Authors: Muzhe Wu, Yanzhi Zhao, Shuyi Han, Michael Xieyang Liu, Hong Shen,
- Abstract要約: 非技術的役割による有意義な関与をサポートする方法で、技術設計の選択が受け継がれることはめったにないことを示す。
Google Docsのような既存のツールは、役割間の共同で有害な識別をサポートするのに不適だ。
AI LEGOは、クロスファンクショナルなAI実践者をサポートし、知識のハンドオフを効果的に促進するプロトタイプです。
- 参考スコア(独自算出の注目度): 5.042605164606044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Responsible AI (RAI) efforts increasingly emphasize the importance of addressing potential harms early in the AI development lifecycle through social-technical lenses. However, in cross-functional industry teams, this work is often stalled by a persistent knowledge handoff challenge: the difficulty of transferring high-level, early-stage technical design rationales from technical experts to non-technical or user-facing roles for ethical evaluation and harm identification. Through literature review and a co-design study with 8 practitioners, we unpack how this challenge manifests -- technical design choices are rarely handed off in ways that support meaningful engagement by non-technical roles; collaborative workflows lack shared, visual structures to support mutual understanding; and non-technical practitioners are left without scaffolds for systematic harm evaluation. Existing tools like JIRA or Google Docs, while useful for product tracking, are ill-suited for supporting joint harm identification across roles, often requiring significant extra effort to align understanding. To address this, we developed AI LEGO, a web-based prototype that supports cross-functional AI practitioners in effectively facilitating knowledge handoff and identifying harmful design choices in the early design stages. Technical roles use interactive blocks to draft development plans, while non-technical roles engage with those blocks through stage-specific checklists and LLM-driven persona simulations to surface potential harms. In a study with 18 cross-functional practitioners, AI LEGO increased the volume and likelihood of harms identified compared to baseline worksheets. Participants found that its modular structure and persona prompts made harm identification more accessible, fostering clearer and more collaborative RAI practices in early design.
- Abstract(参考訳): 責任AI(Responsible AI, RAI)の取り組みは、社会技術レンズによるAI開発ライフサイクルの初期における潜在的な害に対処することの重要性をますます強調している。
しかしながら、クロスファンクショナルな業界チームでは、この作業は永続的な知識のハンドオフの課題によって停滞することが多い。
文献レビューと8人の実践者による共同設計調査を通じて、この課題がどのように現れているのかを解き放ちます -- 非技術的役割による有意義な関与をサポートする技術設計の選択はめったに受け継がれません。
JIRAやGoogle Docsのような既存のツールは、プロダクトのトラッキングには向いていないが、役割間の共同で有害な識別をサポートするには不適であり、理解の整合に多大な労力を要することが多い。
この問題を解決するために、私たちは、クロスファンクショナルなAI実践者を支援するWebベースのプロトタイプであるAI LEGOを開発しました。
技術的役割は開発計画の草案を作成するためにインタラクティブブロックを使用し、技術的役割はステージ固有のチェックリストやLSM主導のペルソナシミュレーションを通じてそれらのブロックに関わり、潜在的な害を生じさせる。
クロスファンクショナルな実践者18名を対象にした研究では、AI LEGOはベースラインワークシートと比較して、ボリュームと害の可能性を増大させた。
参加者は、モジュラー構造とペルソナのプロンプトが、よりアクセシビリティを高め、初期の設計においてより明確で協力的なRAIの実践を促進することに気付いた。
関連論文リスト
- De-skilling, Cognitive Offloading, and Misplaced Responsibilities: Potential Ironies of AI-Assisted Design [3.6284577335311563]
UXにフォーカスしたサブレディットから120以上の記事や議論を分析しました。
以上の結果から,実践者は繰り返し作業の削減と創造性の向上に楽観的であることが示唆された。
UX専門家は、AIの役割を即時生産性の向上を超えて批判的に評価すべきである、と私たちは主張する。
論文 参考訳(メタデータ) (2025-03-05T21:47:16Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Assistance or Disruption? Exploring and Evaluating the Design and Trade-offs of Proactive AI Programming Support [23.409008559160256]
我々は,エディタアクティビティとタスクコンテキストに基づいたプログラミング支援を開始するデザインプローブエージェントであるCodellaboratorを紹介し,評価する。
プロアクティブエージェントは、プロンプトのみのパラダイムに比べて効率が向上するが、ワークフローの混乱も引き起こす。
論文 参考訳(メタデータ) (2025-02-25T21:37:25Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Fine-Grained Appropriate Reliance: Human-AI Collaboration with a Multi-Step Transparent Decision Workflow for Complex Task Decomposition [14.413413322901409]
本稿では,MST(Multi-Step Transparent)決定ワークフローがユーザ依存行動に与える影響について検討する。
MST決定ワークフローとの人間とAIのコラボレーションは、特定の文脈におけるワンステップのコラボレーションよりも優れていることを示す。
私たちの研究は、最適な人間とAIのコラボレーションを得るのに役立つ、オールサイズの意思決定ワークフローが存在しないことを強調しています。
論文 参考訳(メタデータ) (2025-01-19T01:03:09Z) - Towards Next-Generation Medical Agent: How o1 is Reshaping Decision-Making in Medical Scenarios [46.729092855387165]
本稿では,医療用AIエージェントのバックボーンLSMの選択について検討する。
我々の研究結果は、o1の診断精度と一貫性を高める能力を示し、よりスマートでより応答性の高いAIツールへの道を開いた。
論文 参考訳(メタデータ) (2024-11-16T18:19:53Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Investigating Practices and Opportunities for Cross-functional
Collaboration around AI Fairness in Industry Practice [10.979734542685447]
新たな研究機関は、AI設計と開発における公平性の問題に対処する上で、非効果的なクロスファンクショナルコラボレーションが大きな障壁であることを示している。
我々は17社からさまざまな役割を担った23人の業界実践者を対象に,一連のインタビューとデザインワークショップを開催した。
実践者は、役割間のAIフェアネスに関する理解、文脈化、評価の摩擦を克服するために、ブリッジ作業に従事していることがわかった。
論文 参考訳(メタデータ) (2023-06-10T23:42:26Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。