論文の概要: Hardware-Enabled Mechanisms for Verifying Responsible AI Development
- arxiv url: http://arxiv.org/abs/2505.03742v1
- Date: Wed, 02 Apr 2025 22:23:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.388187
- Title: Hardware-Enabled Mechanisms for Verifying Responsible AI Development
- Title(参考訳): ハードウェアで実現可能なAI開発検証機構
- Authors: Aidan O'Gara, Gabriel Kulp, Will Hodgkins, James Petrie, Vincent Immler, Aydin Aysu, Kanad Basu, Shivam Bhasin, Stjepan Picek, Ankur Srivastava,
- Abstract要約: ハードウェア対応メカニズム(HEM)は、AIトレーニングアクティビティの重要な特性を検証可能な報告を可能にすることで、責任あるAI開発を支援することができる。
このようなツールは、プライバシーと知的財産権の懸念に対処しながら、透明性を促進し、セキュリティを改善することができる。
- 参考スコア(独自算出の注目度): 17.536212903072105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advancements in AI capabilities, driven in large part by scaling up computing resources used for AI training, have created opportunities to address major global challenges but also pose risks of misuse. Hardware-enabled mechanisms (HEMs) can support responsible AI development by enabling verifiable reporting of key properties of AI training activities such as quantity of compute used, training cluster configuration or location, as well as policy enforcement. Such tools can promote transparency and improve security, while addressing privacy and intellectual property concerns. Based on insights from an interdisciplinary workshop, we identify open questions regarding potential implementation approaches, emphasizing the need for further research to ensure robust, scalable solutions.
- Abstract(参考訳): AI能力の進歩は、AIトレーニングに使用されるコンピューティングリソースのスケールアップによって大きく推進されているが、世界的な大きな課題に対処する機会を生み出しただけでなく、誤用のリスクも生じている。
ハードウェア対応メカニズム(HEM)は、使用する計算量、クラスタ構成やロケーションのトレーニング、ポリシの実施など、AIトレーニングアクティビティの重要な特性の検証可能なレポートを可能にすることで、責任あるAI開発を支援することができる。
このようなツールは、プライバシーと知的財産権の懸念に対処しながら、透明性を促進し、セキュリティを改善することができる。
学際的なワークショップからの洞察に基づいて、潜在的な実装アプローチに関するオープンな質問を特定し、堅牢でスケーラブルなソリューションを保証するためのさらなる研究の必要性を強調します。
関連論文リスト
- Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [59.52058740470727]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Integrating Generative AI in Cybersecurity Education: Case Study Insights on Pedagogical Strategies, Critical Thinking, and Responsible AI Use [0.0]
本研究では,GenAIツールをサイバーセキュリティ教育に統合するための構造的枠組みを提案する。
実装戦略は2段階のアプローチに従い、チュートリアル演習とアセスメントタスクにGenAIを組み込んだ。
調査の結果,AI支援学習は,セキュリティポリシーの評価,リスク評価の精査,理論的知識の実践的応用へのブリッジといった,学生の能力を大幅に向上させた。
論文 参考訳(メタデータ) (2025-02-21T10:14:07Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Exploring Gen-AI applications in building research and industry: A review [10.154329382433213]
本稿では,建築業界におけるジェネレーティブAI(Gen-AI)技術の変革の可能性について検討する。
これらの先進的なAIツールを活用することで、自動コンプライアンスチェックや設計支援の構築など、主要な領域にわたるアプリケーションについて調査する。
この論文は、建築業界におけるGen-AIの現在の能力に関する包括的分析で締めくくっている。
論文 参考訳(メタデータ) (2024-10-01T21:59:08Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Reinforcement Learning for Hardware Security: Opportunities,
Developments, and Challenges [6.87143729255904]
強化学習(Reinforcement Learning、RL)は、自律的なエージェントが最適な順序の決定を学習する機械学習パラダイムである。
このブリーフィングでは、ハードウェアのトロイの木馬検出におけるRLエージェントの開発について概説する。
論文 参考訳(メタデータ) (2022-08-29T20:57:35Z) - Proceedings of the Robust Artificial Intelligence System Assurance
(RAISA) Workshop 2022 [0.0]
RAISAワークショップは、堅牢な人工知能(AI)と機械学習(ML)システムの研究、開発、応用に焦点を当てる。
特定のMLアルゴリズムに関してロバストネスを研究するのではなく、システムアーキテクチャのレベルでロバストネスの保証を検討することを目的としています。
論文 参考訳(メタデータ) (2022-02-10T01:15:50Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。