論文の概要: Identifying the Supply Chain of AI for Trustworthiness and Risk Management in Critical Applications
- arxiv url: http://arxiv.org/abs/2511.15763v1
- Date: Wed, 19 Nov 2025 14:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.323296
- Title: Identifying the Supply Chain of AI for Trustworthiness and Risk Management in Critical Applications
- Title(参考訳): クリティカルアプリケーションにおける信頼とリスク管理のためのAIのサプライチェーンの同定
- Authors: Raymond K. Sheh, Karen Geappen,
- Abstract要約: Gapは、現代のAIシステムの出力に寄与するデータソース、事前訓練されたモデル、エージェント、サービス、その他のシステムの複雑なWebに関連するサプライチェーンリスクの体系的評価に存在する。
我々は、AIのサプライチェーンとAIシステムの振る舞いとアウトプットに関連するリスクに着目し、AIリスク評価と管理の現状を調査する。
本稿では,AIサプライチェーンを分類するための分類法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risks associated with the use of AI, ranging from algorithmic bias to model hallucinations, have received much attention and extensive research across the AI community, from researchers to end-users. However, a gap exists in the systematic assessment of supply chain risks associated with the complex web of data sources, pre-trained models, agents, services, and other systems that contribute to the output of modern AI systems. This gap is particularly problematic when AI systems are used in critical applications, such as the food supply, healthcare, utilities, law, insurance, and transport. We survey the current state of AI risk assessment and management, with a focus on the supply chain of AI and risks relating to the behavior and outputs of the AI system. We then present a proposed taxonomy specifically for categorizing AI supply chain entities. This taxonomy helps stakeholders, especially those without extensive AI expertise, to "consider the right questions" and systematically inventory dependencies across their organization's AI systems. Our contribution bridges a gap between the current state of AI governance and the urgent need for actionable risk assessment and management of AI use in critical applications.
- Abstract(参考訳): AIの使用に伴うリスクは、アルゴリズムバイアスからモデル幻覚まで、研究者からエンドユーザまで、AIコミュニティ全体で多くの注目と広範な研究を受けています。
しかし、現代のAIシステムの出力に寄与するデータソース、事前訓練されたモデル、エージェント、サービス、その他のシステムの複雑なWebに関連するサプライチェーンリスクの体系的評価には、ギャップが存在する。
このギャップは、食品供給、医療、ユーティリティ、法律、保険、輸送などの重要な応用でAIシステムが使用される場合に特に問題となる。
我々は、AIのサプライチェーンとAIシステムの振る舞いとアウトプットに関連するリスクに着目し、AIリスク評価と管理の現状を調査する。
次に、AIサプライチェーンエンティティの分類に特化して提案する分類法を提案する。
この分類は、特にAIの専門知識のないステークホルダーが“適切な質問”を考え、組織のAIシステム全体にわたって依存関係を体系的に管理するのに役立つ。
当社のコントリビューションは、AIガバナンスの現在の状況と、重要なアプリケーションにおける実行可能なリスク評価とAI利用の管理に対する緊急の必要性のギャップを埋めるものです。
関連論文リスト
- AI Risk Atlas: Taxonomy and Tooling for Navigating AI Risks and Resources [24.502423087280008]
AIリスクアトラス(AI Risk Atlas)は、さまざまなソースからAIリスクを統合し、それらをガバナンスフレームワークと整合させる、構造化された分類法である。
私たちはまた、リスク定義、ベンチマーク、データセット、緩和戦略の分割を橋渡しするために設計されたオープンソースのツールのコレクションであるR Risk Atlas Nexusを紹介します。
論文 参考訳(メタデータ) (2025-02-26T12:23:14Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。