論文の概要: Position Paper: Model Access should be a Key Concern in AI Governance
- arxiv url: http://arxiv.org/abs/2412.00836v1
- Date: Sun, 01 Dec 2024 14:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:48:09.069531
- Title: Position Paper: Model Access should be a Key Concern in AI Governance
- Title(参考訳): ポジションペーパー: モデルアクセスはAIガバナンスにおける重要な関心事であるべき
- Authors: Edward Kembery, Ben Bucknall, Morgan Simpson,
- Abstract要約: 下流でのAIシステムのユースケース、メリット、リスクは、システムに与えられたアクセスと、誰へのアクセスに大きく依存します。
私たちは、組織や政府が責任あるエビデンスベースのアクセス決定を行うのを支援することに焦点を当てた、新たな分野であるモデルアクセスガバナンスに注目します。
私たちは、AI評価組織、フロンティアAI企業、政府、国際機関が経験的に主導されたアクセスガバナンスに関するコンセンサスを構築するのを支援するために、4つのレコメンデーションを作成しています。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The downstream use cases, benefits, and risks of AI systems depend significantly on the access afforded to the system, and to whom. However, the downstream implications of different access styles are not well understood, making it difficult for decision-makers to govern model access responsibly. Consequently, we spotlight Model Access Governance, an emerging field focused on helping organisations and governments make responsible, evidence-based access decisions. We outline the motivation for developing this field by highlighting the risks of misgoverning model access, the limitations of existing research on the topic, and the opportunity for impact. We then make four sets of recommendations, aimed at helping AI evaluation organisations, frontier AI companies, governments and international bodies build consensus around empirically-driven access governance.
- Abstract(参考訳): 下流でのAIシステムのユースケース、メリット、リスクは、システムや誰に提供されるアクセスに大きく依存します。
しかし、異なるアクセススタイルの下流にある意味はよく理解されておらず、意思決定者がモデルアクセスを責任を持って管理することは困難である。
その結果、組織や政府が責任あるエビデンスベースのアクセス決定を行うのを支援することに焦点を当てた、新たな分野であるモデルアクセスガバナンスに注目するようになりました。
この分野でのモチベーションは、モデルアクセスの誤操作のリスク、既存の研究の限界、影響の機会を強調して概説する。
そして、私たちは、AI評価組織、フロンティアAI企業、政府、国際機関が経験的に駆動されるアクセスガバナンスに関するコンセンサスを構築するのを支援するために、4つのレコメンデーションを作成します。
関連論文リスト
- Assistive AI for Augmenting Human Decision-making [3.379906135388703]
この論文は、人間の監視を維持しながら、AIが意思決定の複雑なプロセスを支援する方法を示している。
私たちのフレームワークの中心は、プライバシ、説明責任、信頼性の原則です。
論文 参考訳(メタデータ) (2024-10-18T10:16:07Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Studying Up Public Sector AI: How Networks of Power Relations Shape Agency Decisions Around AI Design and Use [29.52245155918532]
私たちは、AIツールが代理店で果たす役割について決定する権限と責任を持つ人々について、公共セクターAIを研究します。
私たちの調査結果は、インフラ、法律、社会的要因が、AI設計と採用に関する決定に幅広い利害関係者が関与することに対する障壁や不関心をいかに生み出すかに光を当てています。
論文 参考訳(メタデータ) (2024-05-21T02:31:26Z) - Responsible Reporting for Frontier AI Development [2.6591642690968067]
フロンティアAIシステムからのリスクを緩和するには、それらのシステムに関する最新かつ信頼性の高い情報が必要である。
フロンティアシステムの開発と展開を行う組織は、そのような情報にかなりのアクセス権を持つ。
政府、産業、市民社会のアクターに安全クリティカルな情報を報告することで、これらの組織はフロンティア・システムによって引き起こされる新しい新興のリスクに対する可視性を向上させることができる。
論文 参考訳(メタデータ) (2024-04-03T12:18:45Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - 'Team-in-the-loop': Ostrom's IAD framework 'rules in use' to map and measure contextual impacts of AI [0.0]
この記事では、OstromのInstitutional Analysis and Development Framework(IAD)の'rules in use'が、AIのコンテキスト分析アプローチとしてどのように開発できるかを考察する。
論文 参考訳(メタデータ) (2023-03-24T14:01:00Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。