論文の概要: Which Information should the UK and US AISI share with an International Network of AISIs? Opportunities, Risks, and a Tentative Proposal
- arxiv url: http://arxiv.org/abs/2503.04741v1
- Date: Wed, 05 Feb 2025 16:49:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-16 11:16:18.315274
- Title: Which Information should the UK and US AISI share with an International Network of AISIs? Opportunities, Risks, and a Tentative Proposal
- Title(参考訳): 英国とアメリカのAISIはAISIの国際ネットワークとどの情報を共有するべきか?
- Authors: Lara Thurnherr,
- Abstract要約: イギリスAI安全研究所(英: UK AI Safety Institute, 英: UK AI Safety Institute, 英: UK AI Safety Institute, 英: UK AI Safety Institute, 略称:UK)は、アメリカ合衆国の国際司法機関である。
本論では,両機関が特定の情報カテゴリを国際評価ネットワークと共有することに関心があることを論じる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The UK AI Safety Institute (UK AISI) and its parallel organisation in the United States (US AISI) take up a unique position in the recently established International Network of AISIs. Both are in jurisdictions with frontier AI companies and are assuming leading roles in the international conversation on AI Safety. This paper argues that it is in the interest of both institutions to share specific categories of information with the International Network of AISIs, deliberately abstain from sharing others and carefully evaluate sharing some categories on a case by case basis, according to domestic priorities. The paper further proposes a provisional framework with which policymakers and researchers can distinguish between these three cases, taking into account the potential benefits and risks of sharing specific categories of information, ranging from pre-deployment evaluation results to evaluation standards. In an effort to further improve the research on AI policy relevant information sharing decisions, the paper emphasises the importance of continuously monitoring fluctuating factors influencing sharing decisions and a more in-depth analysis of specific policy relevant information categories and additional factors to consider in future research.
- Abstract(参考訳): 英国AI安全研究所(UK AISI)と米国におけるその平行組織(US AISI)は、最近設立されたAISIの国際ネットワークにおいてユニークな地位を占めている。
どちらもフロンティアAI企業との司法管轄下にあり、AI安全に関する国際会議において主要な役割を担っている。
本稿では,各機関が,AISIの国際ネットワークと特定のカテゴリの情報を共有すること,他機関との共有を意図的に禁止すること,ケースベースでいくつかのカテゴリ情報を共有することを,国内優先に基づいて慎重に評価することに関心があることを論じる。
さらに, 政策立案者や研究者が, 事前評価結果から評価基準まで, 特定のカテゴリの情報共有のメリットとリスクを考慮し, これら3つの事例を区別できる仮枠組みを提案する。
本研究は、AI政策関連情報共有決定に関する研究をさらに改善するために、共有決定に影響を与える変動要因を継続的に監視することの重要性と、今後の研究で考慮すべき特定の政策関連情報カテゴリおよび追加要因のより詳細な分析を強調する。
関連論文リスト
- Understanding the First Wave of AI Safety Institutes: Characteristics, Functions, and Challenges [0.0]
2023年11月、英国と米国はAI安全研究所の創設を発表した。
このプライマーは「第1波」という類似のクラスターの1つのクラスタを記述する。
第一波にはいくつかの基本的な特徴がある。
論文 参考訳(メタデータ) (2024-10-11T19:50:23Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Unveiling Legitimacy in the unexpected events context : An Inquiry into Information System Consultancy companies and international organizations through Topic Modeling Analysis [0.0]
本研究は、ISコンサルタント会社と国際機関の2つの主要な利害関係者のコミュニケーションに焦点を当てる。
この目的を達成するため,両俳優が出版する多種多様な出版物について検討した。
論文 参考訳(メタデータ) (2024-07-08T07:44:03Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - "Model Cards for Model Reporting" in 2024: Reclassifying Category of Ethical Considerations in Terms of Trustworthiness and Risk Management [0.0]
2019年、"Model Cards for Model Reporting"と題された論文は、モデルパフォーマンスを文書化する新しいツールを導入した。
この論文で詳述されたカテゴリの1つは倫理的考察であり、データのサブカテゴリ、人間の生活、緩和、リスクと害、ユースケースが含まれる。
我々は、信頼に値するAIとして知られる分野の成熟により、このカテゴリをオリジナルのモデルカードに再分類することを提案する。
論文 参考訳(メタデータ) (2024-02-15T14:56:00Z) - Service Level Agreements and Security SLA: A Comprehensive Survey [51.000851088730684]
本調査では,SLA管理のコンセプト,アプローチ,オープンな課題を網羅する技術の現状を明らかにする。
これは、既存の調査で提案された分析と、このトピックに関する最新の文献とのギャップを包括的にレビューし、カバーすることで貢献する。
SLAライフサイクルの段階に基づく分析を組織化するための新しい分類基準を提案する。
論文 参考訳(メタデータ) (2024-01-31T12:33:41Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Complying with the EU AI Act [0.0]
EU AI法は、AIシステムに関するEUの法律である。
本稿では,AI法のいくつかのカテゴリについて述べる。
サイズやセクターなどの組織特性の影響について検討し,コンプライアンスへの影響について検討した。
論文 参考訳(メタデータ) (2023-07-19T21:04:46Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z) - Advancing Differential Privacy: Where We Are Now and Future Directions for Real-World Deployment [100.1798289103163]
差分プライバシ(DP)分野における現状と現状の方法論の詳細なレビューを行う。
論文のポイントとハイレベルな内容は,「認知プライバシ(DP:次のフロンティアへの挑戦)」の議論から生まれた。
この記事では、プライバシの領域におけるアルゴリズムおよび設計決定の基準点を提供することを目標とし、重要な課題と潜在的研究の方向性を強調します。
論文 参考訳(メタデータ) (2023-04-14T05:29:18Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。