論文の概要: The AI Model Risk Catalog: What Developers and Researchers Miss About Real-World AI Harms
- arxiv url: http://arxiv.org/abs/2508.16672v1
- Date: Thu, 21 Aug 2025 07:07:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.107698
- Title: The AI Model Risk Catalog: What Developers and Researchers Miss About Real-World AI Harms
- Title(参考訳): AIモデルのリスクカタログ - 開発者と研究者が現実のAIハームを見逃すもの
- Authors: Pooja S. B. Rao, Sanja Šćepanović, Dinesh Babu Jayagopi, Mauro Cherubini, Daniele Quercia,
- Abstract要約: 私たちはHugging Faceから約46万のAIモデルカードを分析し、開発者がリスクを報告する方法を調べました。
我々はこれらを、MITのリスクリポジトリの研究者が特定したリスクと、AIインシデントデータベースの現実世界のインシデントと比較した。
この結果は、設計プロセスの初期段階において、開発者がヒューマンインタラクションやシステム的リスクについて考えるのに役立つ、より明確で構造化されたリスクレポートの必要性を示している。
- 参考スコア(独自算出の注目度): 7.37865739449202
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyzed nearly 460,000 AI model cards from Hugging Face to examine how developers report risks. From these, we extracted around 3,000 unique risk mentions and built the \emph{AI Model Risk Catalog}. We compared these with risks identified by researchers in the MIT Risk Repository and with real-world incidents from the AI Incident Database. Developers focused on technical issues like bias and safety, while researchers emphasized broader social impacts. Both groups paid little attention to fraud and manipulation, which are common harms arising from how people interact with AI. Our findings show the need for clearer, structured risk reporting that helps developers think about human-interaction and systemic risks early in the design process. The catalog and paper appendix are available at: https://social-dynamics.net/ai-risks/catalog.
- Abstract(参考訳): 私たちはHugging Faceから約46万のAIモデルカードを分析し、開発者がリスクを報告する方法を調べました。
これらから約3,000のユニークなリスク言及を抽出し、‘emph{AI Model Risk Catalog}’を構築しました。
我々はこれらを、MITのリスクリポジトリの研究者が特定したリスクと、AIインシデントデータベースの現実世界のインシデントと比較した。
開発者はバイアスや安全性といった技術的な問題に集中し、研究者はより広範な社会的影響を強調した。
どちらのグループも詐欺や操作にはほとんど注意を払わなかった。
この結果は、設計プロセスの初期段階において、開発者がヒューマンインタラクションやシステム的リスクについて考えるのに役立つ、より明確で構造化されたリスクレポートの必要性を示している。
カタログとペーパーの付録は、https://social-dynamics.net/ai-risks/catalog.comで公開されている。
関連論文リスト
- Fully Autonomous AI Agents Should Not be Developed [58.88624302082713]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - The AI Risk Repository: A Comprehensive Meta-Review, Database, and Taxonomy of Risks From Artificial Intelligence [35.77247656798871]
人工知能(AI)によって引き起こされるリスクは、学者、監査人、政策立案者、AI企業、そして一般大衆にかなり懸念されている。
AIリスクに対する共通理解の欠如は、包括的に議論し、研究し、それに反応する能力を妨げる可能性がある。
本稿では、共通の参照フレームとして機能するAIリスクリポジトリを作成することで、このギャップに対処する。
論文 参考訳(メタデータ) (2024-08-14T10:32:06Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。