論文の概要: AI Safety Frameworks Should Include Procedures for Model Access Decisions
- arxiv url: http://arxiv.org/abs/2411.10547v1
- Date: Fri, 15 Nov 2024 19:44:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:34:34.845071
- Title: AI Safety Frameworks Should Include Procedures for Model Access Decisions
- Title(参考訳): AIの安全フレームワークは、モデルアクセス決定の手続きを強制すべきである
- Authors: Edward Kembery, Tom Reed,
- Abstract要約: ダウンストリームのユースケース、メリット、リスクは、モデルにどのようなアクセスが提供されるかに大きく依存します。
既存の安全フレームワークとAI開発者利用ポリシーは、与えられたモデルによって引き起こされるリスクが、与えられたオーディエンスに提供するアクセスのレベルに依存することを認識している。
本稿では、モデルアクセスに関する決定を行うための透明な手順を概説することにより、フロンティアAI企業が既存の安全フレームワークの上に構築することを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The downstream use cases, benefits, and risks of AI models depend significantly on what sort of access is provided to the model, and who it is provided to. Though existing safety frameworks and AI developer usage policies recognise that the risk posed by a given model depends on the level of access provided to a given audience, the procedures they use to make decisions about model access are ad hoc, opaque, and lacking in empirical substantiation. This paper consequently proposes that frontier AI companies build on existing safety frameworks by outlining transparent procedures for making decisions about model access, which we term Responsible Access Policies (RAPs). We recommend that, at a minimum, RAPs should include the following: i) processes for empirically evaluating model capabilities given different styles of access, ii) processes for assessing the risk profiles of different categories of user, and iii) clear and robust pre-commitments regarding when to grant or revoke specific types of access for particular groups under specified conditions.
- Abstract(参考訳): 下流でのAIモデルのユースケース、メリット、リスクは、モデルにどのようなアクセスが提供され、誰が提供されるかに大きく依存します。
既存の安全フレームワークとAI開発者利用ポリシーは、与えられたモデルによって引き起こされるリスクが、与えられたオーディエンスに提供するアクセスのレベルに依存することを認識していますが、モデルアクセスに関する決定に使用する手順は、アドホックで不透明で、実証的なサブストラテジが欠如しています。
そこで本論文では,モデルアクセスに関する決定を行う透過的な手順を概説することにより,フロンティアAI企業が既存の安全フレームワークを構築することを提案する。
最低でも、以下を含むことを推奨します。
一 異なるアクセスの様式を与えられたモデル能力を実証的に評価する過程
二 利用者の異なるカテゴリーのリスクプロファイルを評価する方法及び方法
三 特定団体の特定アクセスの許可又は取り消しの時期に関する明確かつ堅牢な予科
関連論文リスト
- Adapting cybersecurity frameworks to manage frontier AI risks: A defense-in-depth approach [0.0]
AI関連のリスク管理におけるギャップの特定を支援する3つのアプローチを概説する。
まず、機能的なアプローチは、リスク管理アプローチがカバーすべきアクティビティの不可欠なカテゴリを特定します。
第二に、ライフサイクルのアプローチは、モデル開発ライフサイクル全体にわたって安全とセキュリティのアクティビティを割り当てます。
第3に、脅威に基づくアプローチは、悪意のあるアクターが使用する戦術、テクニック、手順を特定する。
論文 参考訳(メタデータ) (2024-08-15T05:06:03Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - AI Risk Profiles: A Standards Proposal for Pre-Deployment AI Risk
Disclosures [0.8702432681310399]
下流の意思決定をガイドできるリスクプロファイリング標準を提案する。
この基準は、提案したAIリスクの分類に基づいており、文献で提案されるさまざまなリスクの高度な分類を反映している。
我々はこの方法論を,公開情報を用いた多数の著名なAIシステムに適用する。
論文 参考訳(メタデータ) (2023-09-22T20:45:15Z) - REX: Rapid Exploration and eXploitation for AI Agents [103.68453326880456]
本稿では、REXと呼ばれるAIエージェントのための高速探索およびeXploitationのための改良されたアプローチを提案する。
REXは追加の報酬層を導入し、アッパー信頼境界(UCB)スコアに似た概念を統合し、より堅牢で効率的なAIエージェントのパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-07-18T04:26:33Z) - Online Safety Property Collection and Refinement for Safe Deep
Reinforcement Learning in Mapless Navigation [79.89605349842569]
オンラインプロパティのコレクション・リファインメント(CROP)フレームワークをトレーニング時にプロパティを設計するために導入する。
CROPは、安全でない相互作用を識別し、安全特性を形成するためにコストシグナルを使用する。
本手法をいくつかのロボットマップレスナビゲーションタスクで評価し,CROPで計算した違反量によって,従来のSafe DRL手法よりも高いリターンと低いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-02-13T21:19:36Z) - Risk Consistent Multi-Class Learning from Label Proportions [64.0125322353281]
本研究は,バッグにトレーニングインスタンスを提供するMCLLP設定によるマルチクラス学習に対処する。
既存のほとんどのMCLLPメソッドは、インスタンスの予測や擬似ラベルの割り当てにバッグワイズな制約を課している。
経験的リスク最小化フレームワークを用いたリスク一貫性手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T03:49:04Z) - Risk-Aware Fine-Grained Access Control in Cyber-Physical Contexts [12.138525287184061]
RASAは、教師なし機械学習を活用して、リスクベースの認可決定境界を自動的に推論する、コンテキスト依存のアクセス認可アプローチとメカニズムである。
医療利用環境において、サイバーおよび物理的条件が個人の健康情報を保護するためのコンテキスト固有のリスクを生じさせるRASについて検討する。
論文 参考訳(メタデータ) (2021-08-29T03:38:45Z) - SMT-Based Safety Verification of Data-Aware Processes under Ontologies
(Extended Version) [71.12474112166767]
我々は、このスペクトルで最も調査されたモデルの1つ、すなわち単純なアーティファクトシステム(SAS)の変種を紹介する。
このDLは適切なモデル理論特性を享受し、後方到達性を適用可能なSASを定義することができ、対応する安全問題のPSPACEにおける決定可能性をもたらす。
論文 参考訳(メタデータ) (2021-08-27T15:04:11Z) - An Abstraction-based Method to Verify Multi-Agent Deep
Reinforcement-Learning Behaviours [8.95294551927446]
マルチエージェント強化学習(RL)はしばしば、学習エージェントの安全な行動を保証するために苦労する。
本稿では,形式検証と(深度)RLアルゴリズムを組み合わせることで,形式化された安全制約の満足度を保証する手法を提案する。
論文 参考訳(メタデータ) (2021-02-02T11:12:30Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - An Automatic Attribute Based Access Control Policy Extraction from
Access Logs [5.142415132534397]
属性ベースのアクセス制御(ABAC)モデルは、複雑なシステムや動的システムの認証要求に対処するための、より柔軟なアプローチを提供する。
本稿では,システムへのアクセスログからABACポリシールールを自動的に学習し,ポリシー開発プロセスを簡素化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T15:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。