論文の概要: Informing AI Risk Assessment with News Media: Analyzing National and Political Variation in the Coverage of AI Risks
- arxiv url: http://arxiv.org/abs/2507.23718v1
- Date: Thu, 31 Jul 2025 16:52:21 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-08-01 13:49:42.569359
- Title: Informing AI Risk Assessment with News Media: Analyzing National and Political Variation in the Coverage of AI Risks
- Title(参考訳): ニュースメディアによるAIリスクアセスメントの実施:AIリスクのカバーにおける国家的・政治的変動の分析
- Authors: Mowafak Allaham, Kimon Kieslich, Nicholas Diakopoulos,
- Abstract要約: 本研究は,6カ国にまたがるニュースメディアの全国横断サンプルの比較分析を行った。
調査の結果、AIリスクは各国で異なる優先順位付けがなされており、AIリスクの優先順位付けにおいて、左と右の傾いた米国ベースのアウトレットがどのように異なるかが明らかにされた。
これらの発見は、リスクベースのガバナンスアプローチの補助源としてニュースメディアを考える際に考慮すべきニュアンスについて、リスク評価者や政策立案者に対して通知することができる。
- 参考スコア(独自算出の注目度): 3.2566808526538873
- License:
- Abstract: Risk-based approaches to AI governance often center the technological artifact as the primary focus of risk assessments, overlooking systemic risks that emerge from the complex interaction between AI systems and society. One potential source to incorporate more societal context into these approaches is the news media, as it embeds and reflects complex interactions between AI systems, human stakeholders, and the larger society. News media is influential in terms of which AI risks are emphasized and discussed in the public sphere, and thus which risks are deemed important. Yet, variations in the news media between countries and across different value systems (e.g. political orientations) may differentially shape the prioritization of risks through the media's agenda setting and framing processes. To better understand these variations, this work presents a comparative analysis of a cross-national sample of news media spanning 6 countries (the U.S., the U.K., India, Australia, Israel, and South Africa). Our findings show that AI risks are prioritized differently across nations and shed light on how left vs. right leaning U.S. based outlets not only differ in the prioritization of AI risks in their coverage, but also use politicized language in the reporting of these risks. These findings can inform risk assessors and policy-makers about the nuances they should account for when considering news media as a supplementary source for risk-based governance approaches.
- Abstract(参考訳): AIガバナンスに対するリスクベースのアプローチは、しばしば、AIシステムと社会の間の複雑な相互作用から生じるシステム的リスクを見越して、リスクアセスメントの主要な焦点として、技術的アーティファクトの中心となる。
これらのアプローチにより社会的文脈を取り入れる潜在的な情報源の1つは、AIシステム、人間の利害関係者、そしてより大きな社会の間の複雑な相互作用を埋め込んで反映する、ニュースメディアである。
ニュースメディアは、AIのリスクが公共の場で強調され議論され、どのリスクが重要かという観点で影響力を持っている。
しかし、各国と異なる価値体系(例えば政治的指向)間のニュースメディアのバリエーションは、メディアのアジェンダ設定とフレーミングプロセスを通じてリスクの優先順位付けを差分的に形成する可能性がある。
これらの変化をよりよく理解するために、この研究は6カ国(アメリカ合衆国、イギリス、インド、オーストラリア、イスラエル、南アフリカ)にわたる全国横断のニュースメディアのサンプルを比較分析した。
我々の研究結果は、AIリスクが各国で異なる優先順位付けされていることを示し、AIリスクの優先順位付けにおいて、左と右の傾いた米国拠点のアウトレットがいかに異なるかだけでなく、これらのリスクの報告に政治言語を使用することにも光を当てている。
これらの発見は、リスクベースのガバナンスアプローチの補助源としてニュースメディアを考える際に考慮すべきニュアンスについて、リスク評価者や政策立案者に対して通知することができる。
関連論文リスト
- An Overview of the Risk-based Model of AI Governance [0.0]
セクションでは、AIガバナンスに対するリスクベースのアプローチに対するいくつかの批判が提案されている。
リスクの概念は、その固有の規範が、その利益が重要となる支配的かつ有害な物語を再現するので、問題であると主張する。
本稿では、リスクベースのAIガバナンスを改善する上で、既存のリスクガバナンス奨学金が貴重な洞察を得られることを示唆して結論付ける。
論文 参考訳(メタデータ) (2025-07-21T06:56:04Z) - A First-Principles Based Risk Assessment Framework and the IEEE P3396 Standard [0.0]
生成人工知能(AI)は、コンテンツ作成と意思決定支援において前例のない自動化を可能にしている。
本稿では、IEEE P3396 Recommended Practice for AI Risk, Safety, Trustworthiness, and Responsibilityの基礎となる第一原理リスク評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-31T18:00:03Z) - Global Perspectives of AI Risks and Harms: Analyzing the Negative Impacts of AI Technologies as Prioritized by News Media [3.2566808526538873]
AI技術は経済成長とイノベーションを促進する可能性があるが、社会に重大なリスクをもたらす可能性がある。
これらのニュアンスを理解する一つの方法は、メディアがAIにどう報告するかを調べることである。
我々は、アジア、アフリカ、ヨーロッパ、中東、北アメリカ、オセアニアにまたがる27カ国にまたがる、広く多様なグローバルニュースメディアのサンプルを分析した。
論文 参考訳(メタデータ) (2025-01-23T19:14:11Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Implications for Governance in Public Perceptions of Societal-scale AI Risks [0.29022435221103454]
投票者は、AIのリスクは専門家よりも可能性が高く影響も大きいと認識し、AI開発を遅くすることを主張する。
政策介入は、社会規模リスクの全てのクラスにまたがる緩和努力をより慎重にバランスを取ろうとすれば、集団の懸念を和らげるのがよい。
論文 参考訳(メタデータ) (2024-06-10T11:52:25Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。