論文の概要: Documenting Deployment with Fabric: A Repository of Real-World AI Governance
- arxiv url: http://arxiv.org/abs/2508.14119v1
- Date: Mon, 18 Aug 2025 14:24:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.203919
- Title: Documenting Deployment with Fabric: A Repository of Real-World AI Governance
- Title(参考訳): Fabricによるデプロイメントの文書化 - 現実のAIガバナンスのリポジトリ
- Authors: Mackenzie Jorgensen, Kendall Brogle, Katherine M. Collins, Lujain Ibrahim, Arina Shah, Petra Ivanovic, Noah Broestl, Gabriel Piles, Paul Dongha, Hatim Abdulhussein, Adrian Weller, Jillian Powers, Umang Bhatt,
- Abstract要約: FabricはデプロイされたAIユースケースのリポジトリで、ガバナンスメカニズムを概説している。
本稿では,AI使用の保護に使用される監視機構とガードレールについて論じる。
私たちは、研究者がAIガバナンスの有効性を研究するために、Fabricを拡張可能で進化するツールとして提供するつもりです。
- 参考スコア(独自算出の注目度): 29.082983731957317
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence (AI) is increasingly integrated into society, from financial services and traffic management to creative writing. Academic literature on the deployment of AI has mostly focused on the risks and harms that result from the use of AI. We introduce Fabric, a publicly available repository of deployed AI use cases to outline their governance mechanisms. Through semi-structured interviews with practitioners, we collect an initial set of 20 AI use cases. In addition, we co-design diagrams of the AI workflow with the practitioners. We discuss the oversight mechanisms and guardrails used in practice to safeguard AI use. The Fabric repository includes visual diagrams of AI use cases and descriptions of the deployed systems. Using the repository, we surface gaps in governance and find common patterns in human oversight of deployed AI systems. We intend for Fabric to serve as an extendable, evolving tool for researchers to study the effectiveness of AI governance.
- Abstract(参考訳): 人工知能(AI)は、金融サービスや交通管理からクリエイティブな文章に至るまで、社会にますます統合されている。
AIの展開に関する学術文献は、主にAIの使用によるリスクと損害に焦点を当てている。
デプロイされたAIユースケースの公開リポジトリであるFabricを紹介して、ガバナンスメカニズムの概要を説明します。
実践者との半構造化インタビューを通じて、最初の20のAIユースケースを収集します。
さらに、AIワークフローのダイアグラムを実践者と共同設計します。
本稿では,AI使用の保護に使用される監視機構とガードレールについて論じる。
Fabricリポジトリには、AIユースケースのビジュアルダイアグラムと、デプロイされたシステムの説明が含まれている。
このレポジトリを使用して、ガバナンスのギャップを表面化し、デプロイされたAIシステムの人間の監視に共通するパターンを見つけます。
私たちは、研究者がAIガバナンスの有効性を研究するために、Fabricを拡張可能で進化するツールとして提供するつもりです。
関連論文リスト
- AI Toolkit: Libraries and Essays for Exploring the Technology and Ethics of AI [0.0]
AITKプロジェクトにはPythonライブラリと計算エッセイ(Jupyterノートブック)の両方が含まれている。
これらのノートブックは、責任あるAIのテーマを中心としたさまざまな人文科学コースの複数の機関で試験されている。
パイロットスタディとユーザビリティテストの結果から、AIの理解を深める上で、AITKはナビゲートが容易で効果的であることが分かる。
論文 参考訳(メタデータ) (2025-01-17T22:08:52Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Usage Cards: Responsibly Reporting AI-generated Content [25.848910414962337]
ChatGPTのようなAIシステムが、人間による作業と区別できないコンテンツを生成できることを考えると、この技術の責任を負うことが懸念される。
我々は、AIの責任ある使用を定義するために、透明性、完全性、説明責任からなる3次元モデルを提案する。
第2に、科学研究におけるAIの使用を報告するための標準化された方法である「AI Usage Cards」を紹介する。
論文 参考訳(メタデータ) (2023-02-16T08:41:31Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Artificial Intelligence Governance for Businesses [1.2818275315985972]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。