論文の概要: AI Harmonics: a human-centric and harms severity-adaptive AI risk assessment framework
- arxiv url: http://arxiv.org/abs/2509.10104v1
- Date: Fri, 12 Sep 2025 09:52:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.042109
- Title: AI Harmonics: a human-centric and harms severity-adaptive AI risk assessment framework
- Title(参考訳): AI Harmonics:重度適応型AIリスク評価フレームワーク
- Authors: Sofia Vei, Paolo Giudici, Pavlos Sermpezis, Athena Vakali, Adelaide Emma Bernardelli,
- Abstract要約: 既存のAIリスク評価モデルは、内部コンプライアンスに重点を置いている。
本研究では,経験的インシデントデータに基づく人間中心型適応アプローチへのパラダイムシフトを提案する。
我々は、厳密な数値推定を必要とせず、順序重大度データを利用して相対的な影響を捉える、AIH(AI harm Assessment metric)を含むAI Harmonicsを提案する。
- 参考スコア(独自算出の注目度): 4.84912384919978
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The absolute dominance of Artificial Intelligence (AI) introduces unprecedented societal harms and risks. Existing AI risk assessment models focus on internal compliance, often neglecting diverse stakeholder perspectives and real-world consequences. We propose a paradigm shift to a human-centric, harm-severity adaptive approach grounded in empirical incident data. We present AI Harmonics, which includes a novel AI harm assessment metric (AIH) that leverages ordinal severity data to capture relative impact without requiring precise numerical estimates. AI Harmonics combines a robust, generalized methodology with a data-driven, stakeholder-aware framework for exploring and prioritizing AI harms. Experiments on annotated incident data confirm that political and physical harms exhibit the highest concentration and thus warrant urgent mitigation: political harms erode public trust, while physical harms pose serious, even life-threatening risks, underscoring the real-world relevance of our approach. Finally, we demonstrate that AI Harmonics consistently identifies uneven harm distributions, enabling policymakers and organizations to target their mitigation efforts effectively.
- Abstract(参考訳): 人工知能(AI)の絶対支配は、前例のない社会的損害とリスクをもたらす。
既存のAIリスク評価モデルは、内部コンプライアンスに重点を置いている。
本研究では,経験的インシデントデータに基づく人間中心型適応アプローチへのパラダイムシフトを提案する。
我々は、厳密な数値推定を必要とせず、順序重大度データを利用して相対的な影響を捉える、AIH(AI harm Assessment metric)を含むAI Harmonicsを提案する。
AI Harmonicsは、堅牢で一般化された方法論と、AIの害を探索し優先順位付けするためのデータ駆動のステークホルダー対応フレームワークを組み合わせる。
注釈付きインシデントデータの実験では、政治的・身体的被害が最も集中度が高く、即時的な緩和が保証されていることが確認された。
最後に、AI Harmonicsが不均一な有害分布を一貫して識別し、政策立案者や組織が効果的に緩和活動をターゲットにできることを実証する。
関連論文リスト
- A Closer Look at the Existing Risks of Generative AI: Mapping the Who, What, and How of Real-World Incidents [11.147381548503965]
我々は、生成的AI障害に特化して分類を構築し、それらが引き起こす害にマッピングする。
本報告では、各種類の害、基礎となる障害モード、害のあるステークホルダー、およびそれらの共通する共起事故の頻度について報告する。
私たちの仕事は、政策立案者、開発者、ジェネレーティブAIユーザに実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-05-28T07:54:06Z) - Human services organizations and the responsible integration of AI: Considering ethics and contextualizing risk(s) [0.0]
著者らは、AIデプロイメントに関する倫理的懸念は、実装コンテキストや特定のユースケースによって大きく異なると主張している。
彼らは、データ感度、専門的な監視要件、クライアントの幸福に対する潜在的影響などの要因を考慮に入れた、次元的リスクアセスメントアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:21Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。