論文の概要: Do AI Companies Make Good on Voluntary Commitments to the White House?
- arxiv url: http://arxiv.org/abs/2508.08345v1
- Date: Mon, 11 Aug 2025 11:23:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.188843
- Title: Do AI Companies Make Good on Voluntary Commitments to the White House?
- Title(参考訳): AI企業は、ホワイトハウスへの自発的なコミットメントで良いものを作るのか?
- Authors: Jennifer Wang, Kayla Huang, Kevin Klyman, Rishi Bommasani,
- Abstract要約: 我々は、2023年のホワイトハウスへの8つの自発的なコミットメントに基づいて、詳細なルーリックを開発することで、公表された行動に基づいて企業を評価する。
最も高く評価されている企業(OpenAI)は、当社のルーリック全体で83%だが、全企業の平均スコアはわずか52%だ。
両社は、平均17%のスコアでウェイトセキュリティのモデル化を約束する上で、システム的にパフォーマンスが劣っていることを実証している。
- 参考スコア(独自算出の注目度): 15.68257326252395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voluntary commitments are central to international AI governance, as demonstrated by recent voluntary guidelines from the White House to the G7, from Bletchley Park to Seoul. How do major AI companies make good on their commitments? We score companies based on their publicly disclosed behavior by developing a detailed rubric based on their eight voluntary commitments to the White House in 2023. We find significant heterogeneity: while the highest-scoring company (OpenAI) scores a 83% overall on our rubric, the average score across all companies is just 52%. The companies demonstrate systemically poor performance for their commitment to model weight security with an average score of 17%: 11 of the 16 companies receive 0% for this commitment. Our analysis highlights a clear structural shortcoming that future AI governance initiatives should correct: when companies make public commitments, they should proactively disclose how they meet their commitments to provide accountability, and these disclosures should be verifiable. To advance policymaking on corporate AI governance, we provide three directed recommendations that address underspecified commitments, the role of complex AI supply chains, and public transparency that could be applied towards AI governance initiatives worldwide.
- Abstract(参考訳): 自発的なコミットメントは、Bletchley Parkからソウルまで、最近のホワイトハウスからG7への自発的なガイドラインで示されているように、国際的なAIガバナンスの中心である。
大手AI企業はコミットメントにどのように貢献するのだろうか?
我々は、2023年のホワイトハウスへの8つの自発的なコミットメントに基づいて、詳細なルーリックを開発することで、公表された行動に基づいて企業を評価する。
もっとも高いスコア付け企業(OpenAI)は、当社のルーブリックで全体の83%を占めていますが、全企業の平均スコアはわずか52%です。
両社は、平均17%のスコアでウェイトセキュリティのモデル化を約束する上で、システム的にパフォーマンスが劣っていることを実証している。
我々の分析は、将来のAIガバナンスイニシアチブが正すべき構造的欠点を強調している。企業が公的なコミットメントを行うとき、説明責任を提供するコミットメントをどのように満たしているかを積極的に開示し、これらの開示は検証されるべきである。
コーポレートAIガバナンスに関する政策策定を進めるために、不特定なコミットメント、複雑なAIサプライチェーンの役割、そして世界中のAIガバナンスイニシアチブに適用可能な公開透明性に対処する3つの推奨事項を提供します。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.10574938556584]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Responsible AI Governance: A Response to UN Interim Report on Governing AI for Humanity [15.434533537570614]
このレポートは、持続可能な開発目標を達成するためのAIの変革の可能性を強調している。
それは、関連するリスクを軽減するための堅牢なガバナンスの必要性を認めている。
報告書は、責任あるAIガバナンスを促進するための実行可能な原則で締めくくっている。
論文 参考訳(メタデータ) (2024-11-29T18:57:24Z) - Enhancing transparency in AI-powered customer engagement [0.0]
本稿では、AIを活用した顧客エンゲージメントに対する消費者信頼を構築する上での重要な課題について論じる。
AIがビジネスオペレーションに革命をもたらす可能性にもかかわらず、誤った情報やAI意思決定プロセスの不透明性に対する広範な懸念は、信頼を損なう。
透明性と説明可能性に対する全体論的アプローチを採用することで、企業はAIテクノロジへの信頼を育むことができる。
論文 参考訳(メタデータ) (2024-09-13T20:26:11Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Missing Value Chain in Generative AI Governance China as an example [0.0]
中国は2023年8月に第1次人工知能サービス臨時行政措置を施行した。
測定は、生成AIの価値連鎖における異なる役割に関する明確な区別を提示する。
AIバリューチェーン内の異なるプレイヤー間の区別と明確な法的地位の欠如は、重大な結果をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-01-05T13:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。