論文の概要: Are Companies Taking AI Risks Seriously? A Systematic Analysis of Companies' AI Risk Disclosures in SEC 10-K forms
- arxiv url: http://arxiv.org/abs/2508.19313v1
- Date: Tue, 26 Aug 2025 10:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.370629
- Title: Are Companies Taking AI Risks Seriously? A Systematic Analysis of Companies' AI Risk Disclosures in SEC 10-K forms
- Title(参考訳): AIリスクは深刻か? SEC10-K形式での企業のAIリスク開示の体系的分析
- Authors: Lucas G. Uberti-Bona Marin, Bram Rijsbosch, Gerasimos Spanakis, Konrad Kollnig,
- Abstract要約: 規制当局は、企業がAI関連のリスクを特定し、報告し、緩和する方法において、より透明性を求めている。
米国では、証券取引委員会(SEC)が、AI関連リスクのより正確な開示を投資家に提供するよう繰り返し警告した。
EUでは、AI法やデジタルサービス法のような新しい法律が、AIリスクレポートと緩和に関する新たなルールを導入している。
本研究は、SEC10-K申請書におけるAIリスク開示に関する大規模な体系的分析である。
- 参考スコア(独自算出の注目度): 9.295655764985318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Artificial Intelligence becomes increasingly central to corporate strategies, concerns over its risks are growing too. In response, regulators are pushing for greater transparency in how companies identify, report and mitigate AI-related risks. In the US, the Securities and Exchange Commission (SEC) repeatedly warned companies to provide their investors with more accurate disclosures of AI-related risks; recent enforcement and litigation against companies' misleading AI claims reinforce these warnings. In the EU, new laws - like the AI Act and Digital Services Act - introduced additional rules on AI risk reporting and mitigation. Given these developments, it is essential to examine if and how companies report AI-related risks to the public. This study presents the first large-scale systematic analysis of AI risk disclosures in SEC 10-K filings, which require public companies to report material risks to their company. We analyse over 30,000 filings from more than 7,000 companies over the past five years, combining quantitative and qualitative analysis. Our findings reveal a sharp increase in the companies that mention AI risk, up from 4% in 2020 to over 43% in the most recent 2024 filings. While legal and competitive AI risks are the most frequently mentioned, we also find growing attention to societal AI risks, such as cyberattacks, fraud, and technical limitations of AI systems. However, many disclosures remain generic or lack details on mitigation strategies, echoing concerns raised recently by the SEC about the quality of AI-related risk reporting. To support future research, we publicly release a web-based tool for easily extracting and analysing keyword-based disclosures across SEC filings.
- Abstract(参考訳): 人工知能が企業戦略の中心となるにつれ、そのリスクに対する懸念も高まりつつある。
これに対し、規制当局は企業がAI関連のリスクを特定し、報告し、緩和する方法に透明性を追求している。
米国では、証券取引委員会(SEC)が、AI関連リスクのより正確な開示を投資家に提供するよう繰り返し警告した。
EUでは、AI法やデジタルサービス法のような新しい法律が、AIリスクレポートと緩和に関する新たなルールを導入している。
これらの発展を考えると、企業がAI関連のリスクを公衆に報告する方法を検討することが不可欠である。
本研究は、SEC10-K申請書におけるAIリスク開示に関する大規模な体系的分析であり、公開企業が企業に対して物質的リスクを報告する必要がある。
われわれは過去5年間で7000社以上の企業から3万件以上の書類を分析し、定量分析と質的分析を組み合わせた。
われわれの調査によると、AIのリスクに言及する企業の割合は、2020年の4%から、最新の2024年の申請件で43%に急上昇した。
合法的で競争的なAIリスクが最も頻繁に言及されているが、サイバー攻撃、詐欺、AIシステムの技術的な制限といった社会的AIリスクにも注目が集まる。
しかし、多くの情報開示は、AI関連のリスクレポートの品質に関するSEC(証券取引委員会)の最近の懸念を反映する、緩和戦略の詳細を欠いている。
将来の研究を支援するため、SECの提出書類からキーワードベースの開示を簡単に抽出し分析するためのWebベースのツールを公開しています。
関連論文リスト
- Public Opinion and The Rise of Digital Minds: Perceived Risk, Trust, and Regulation Support [4.982210700018631]
本研究では,機関やAI技術に対する公的な信頼と,認識されるリスク,AI規制の形式的嗜好について検討する。
政府への信頼が高い人は規制を支持するが、AI企業やAI技術への信頼が高い人は規制を支持する傾向が低い。
論文 参考訳(メタデータ) (2025-04-30T17:56:23Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - From Transcripts to Insights: Uncovering Corporate Risks Using Generative AI [0.0]
我々は、政治的、気候的、AI関連のリスクに曝露する、しっかりとしたレベルのリスク対策を開発し、検証する。
GPT 3.5 モデルを用いてリスクサマリーとアセスメントを生成することにより,GPT ベースの尺度が重要な情報内容を有することを示す。
また、生成的AIは、近年の四半期で急増しているAIリスクのような、新たなリスクを検出するのに効果的であることもわかっています。
論文 参考訳(メタデータ) (2023-10-26T18:30:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Risk assessment at AGI companies: A review of popular risk assessment
techniques from other safety-critical industries [0.0]
OpenAI、Google DeepMind、Anthhropicといった企業は、人工知能(AGI)の構築を目標としている。
AGIが壊滅的なリスクをもたらすとの懸念が高まっている。
本稿では,他の安全クリティカル産業のリスクアセスメント技術についてレビューし,AGI企業が活用する方法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。