論文の概要: Position Paper: Model Access should be a Key Concern in AI Governance
- arxiv url: http://arxiv.org/abs/2412.00836v1
- Date: Sun, 01 Dec 2024 14:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 21:11:22.219731
- Title: Position Paper: Model Access should be a Key Concern in AI Governance
- Title(参考訳): ポジションペーパー: モデルアクセスはAIガバナンスにおける重要な関心事であるべき
- Authors: Edward Kembery, Ben Bucknall, Morgan Simpson,
- Abstract要約: 下流でのAIシステムのユースケース、メリット、リスクは、システムに与えられたアクセスと、誰へのアクセスに大きく依存します。
私たちは、組織や政府が責任あるエビデンスベースのアクセス決定を行うのを支援することに焦点を当てた、新たな分野であるモデルアクセスガバナンスに注目します。
私たちは、AI評価組織、フロンティアAI企業、政府、国際機関が経験的に主導されたアクセスガバナンスに関するコンセンサスを構築するのを支援するために、4つのレコメンデーションを作成しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The downstream use cases, benefits, and risks of AI systems depend significantly on the access afforded to the system, and to whom. However, the downstream implications of different access styles are not well understood, making it difficult for decision-makers to govern model access responsibly. Consequently, we spotlight Model Access Governance, an emerging field focused on helping organisations and governments make responsible, evidence-based access decisions. We outline the motivation for developing this field by highlighting the risks of misgoverning model access, the limitations of existing research on the topic, and the opportunity for impact. We then make four sets of recommendations, aimed at helping AI evaluation organisations, frontier AI companies, governments and international bodies build consensus around empirically-driven access governance.
- Abstract(参考訳): 下流でのAIシステムのユースケース、メリット、リスクは、システムや誰に提供されるアクセスに大きく依存します。
しかし、異なるアクセススタイルの下流にある意味はよく理解されておらず、意思決定者がモデルアクセスを責任を持って管理することは困難である。
その結果、組織や政府が責任あるエビデンスベースのアクセス決定を行うのを支援することに焦点を当てた、新たな分野であるモデルアクセスガバナンスに注目するようになりました。
この分野でのモチベーションは、モデルアクセスの誤操作のリスク、既存の研究の限界、影響の機会を強調して概説する。
そして、私たちは、AI評価組織、フロンティアAI企業、政府、国際機関が経験的に駆動されるアクセスガバナンスに関するコンセンサスを構築するのを支援するために、4つのレコメンデーションを作成します。
関連論文リスト
- A Framework for the Private Governance of Frontier Artificial Intelligence [0.0]
本稿では,ハイブリッド・パブリック・プライベート・システムによるフロンティアAIシステムのガバナンスについて提案する。
政府によって認可され、監督される民間機関は、オプトインベースでフロンティアAIシステムの開発者に認証を提供する。
オプトインと引き換えに、フロンティアAI企業は、顧客のモデル誤用に対するトルト責任から保護を受ける。
論文 参考訳(メタデータ) (2025-04-15T02:56:26Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Enabling External Scrutiny of AI Systems with Privacy-Enhancing Technologies [0.0]
この記事では、非営利のOpenMinedが開発した技術インフラが、センシティブな情報を妥協することなく、AIシステムの外部調査を可能にする方法について説明する。
実際には、外部の研究者は、セキュリティ、プライバシ、知的財産に関するAI企業の正当な懸念のために、AIシステムへのアクセスに苦労している。
OpenMinedが開発したエンドツーエンドの技術インフラは、いくつかのPETをさまざまなセットアップに統合し、AIシステムのプライバシー保護監査を可能にする。
論文 参考訳(メタデータ) (2025-02-05T15:31:11Z) - Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use [29.52245155918532]
私たちは、AIツールが代理店で果たす役割について決定する権限と責任を持つ人々について、公共セクターAIを研究します。
私たちの調査結果は、インフラ、法律、社会的要因が、AI設計と採用に関する決定に幅広い利害関係者が関与することに対する障壁や不関心をいかに生み出すかに光を当てています。
論文 参考訳(メタデータ) (2024-05-21T02:31:26Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI [0.0]
この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
論文 参考訳(メタデータ) (2023-03-24T14:01:00Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。