論文の概要: What Information Should Be Shared with Whom "Before and During Training"?
- arxiv url: http://arxiv.org/abs/2501.10379v1
- Date: Tue, 17 Dec 2024 13:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 07:18:56.955874
- Title: What Information Should Be Shared with Whom "Before and During Training"?
- Title(参考訳): トレーニングの前後」と共有すべき情報は何か?
- Authors: Haydn Belfield,
- Abstract要約: トレーニング実行前には、トレーニング開始日と終了日、(FLOPで)期待された計算使用日、事前トレーニングデータセットの説明など、特定の情報を共有することが可能でした。
同社は、トレーニング中の進捗、能力、リスク、ロケーション、オーナシップ、大規模コンピューティングクラスタの主要なエネルギー源、物理的、人的、サイバーセキュリティのステップをどのように監視するか。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In the Frontier AI Safety Commitments, sixteen companies committed to "Assess the risks posed by their frontier models or systems across the AI lifecycle, including [...] as appropriate, before and during training" (I) and to "Provide public transparency on the implementation of the above (I-VI), except insofar as doing so would increase risk or divulge sensitive commercial information to a degree disproportionate to the societal benefit. They should still share more detailed information which cannot be shared publicly with trusted actors, including their respective home governments or appointed body, as appropriate" (VII). This short paper considers what information should be shared with whom before training begins. What information should be shared publicly and what only with trusted actors such as home governments? Sharing such information before a frontier training run can build shared awareness and preparedness, can improve risk assessment and management, and can contribute to greater predictability and accountability. Companies could share certain information before a training run including: Expected dates of beginning and end of training; Expected compute used (in FLOP); Description of the pre-training dataset(s); Expected capability level of the frontier model or system, including an assessment of potential risks and whether this capability will approach any risk threshold; How the company will monitor progress, capabilities and risks during training; Location, ownership, primary energy source of the large-scale computing cluster(s); Physical, personnel and cybersecurity steps taken; and Which internal and external groups have been tasked to carry out evaluations and red-teaming and what level of resources, support and time they have available to do so.
- Abstract(参考訳): The Frontier AI Safety Commitments, 16 companies committed to "Assess the risk caused by their Frontier model or systems across the AI cycle, including [...] as appropriate, before and during training” (I) and "Pubvide public transparency on the implementation of the above (I-VI) before that would would increase risk or divulge sensitive commercial information to a degree to the societal benefit。
本稿では,学習開始前の情報共有について考察する。
公に公表すべき情報と、ホーム政府などの信頼できるアクターにのみ、どのような情報を共有するべきか?
これらの情報をフロンティアトレーニング実行前に共有することで、共有された認識と準備を構築し、リスク評価と管理を改善し、予測可能性と説明責任を高めることができる。
トレーニングの開始日と終了日、トレーニング前のデータセット(FLOP)の説明、潜在的なリスクの評価を含むフロンティアモデルの能力レベルと、この能力がいかなるリスクしきい値に近づくかどうかの予測、トレーニング中の進捗、オーナシップ、大規模コンピューティングクラスタの一次エネルギー源の監視方法、物理的、人的、サイバーセキュリティのステップ、内部および外部のグループは、評価と再作業、リソースのレベル、サポート、およびそれらを可能にする時間など、トレーニング実行前に特定の情報を共有することができる。
関連論文リスト
- Pre-Deployment Information Sharing: A Zoning Taxonomy for Precursory Capabilities [0.0]
高インパクトで潜在的に危険な能力は、早期の警告ショットに分解されるべきである。
これらの早期警告ショットはそれぞれ、前駆的な機能に対応すべきである。
本稿では,危険能力帯(地域分類)の分類を,停滞した情報交換の枠組みに関連付けて提案する。
論文 参考訳(メタデータ) (2024-11-18T11:25:28Z) - Coordinated Disclosure of Dual-Use Capabilities: An Early Warning System for Advanced AI [0.0]
本稿では,先進的なAI開発者や米国政府機関,その他の民間企業との早期情報共有を支援するプロセスとして,CDDC(Coordinated Disclosure of Dual-Use Capabilities)を提案する。
これは、米国政府、デュアルユースファンデーションモデル開発者、その他のアクターに、公衆の安全とセキュリティに大きな影響を与える可能性のあるAI機能の概要と、対応の最大時間を提供することを目的としている。
論文 参考訳(メタデータ) (2024-07-01T16:09:54Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Model evaluation for extreme risks [46.53170857607407]
AI開発のさらなる進歩は、攻撃的なサイバー能力や強力な操作スキルのような極端なリスクを引き起こす能力につながる可能性がある。
モデル評価が極端なリスクに対処するために重要である理由を説明します。
論文 参考訳(メタデータ) (2023-05-24T16:38:43Z) - Cerberus: Exploring Federated Prediction of Security Events [21.261584854569893]
フェデレートラーニング(FL)による将来のセキュリティイベントの予測の可能性について検討する。
我々は、参加する組織に対して、リカレントニューラルネットワーク(RNN)モデルの協調トレーニングを可能にするシステムであるCerberusを紹介する。
論文 参考訳(メタデータ) (2022-09-07T10:31:20Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Ethical and social risks of harm from Language Models [22.964941107198023]
本稿では,大規模言語モデル(LM)に関連するリスクランドスケープの構築を支援することを目的とする。
コンピュータ科学、言語学、社会科学から多分野の専門知識と文献を参考に、幅広い確立と予測されたリスクが詳細に分析されている。
論文 参考訳(メタデータ) (2021-12-08T16:09:48Z) - Privacy and Trust Redefined in Federated Machine Learning [5.4475482673944455]
参加者間の信頼できるフェデレーション学習を容易にするプライバシー保護型分散型ワークフローを紹介します。
適切な当局から発行された認証クレデンシャルを保有する団体のみが、安全で認証された通信チャネルを確立することができる。
論文 参考訳(メタデータ) (2021-03-29T16:47:01Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。