論文の概要: Err
Err
関連論文リスト
- Securing External Deeper-than-black-box GPAI Evaluations [49.1574468325115]
本稿では,汎用AI(GPAI)モデルの安全かつ効果的な外部評価を行う上での課題と可能性について検討する。
サイズ、能力、到達度、付随するリスクの指数的な増加により、説明責任、安全性、および公的な信頼を保証するには、従来のブラックボックスメソッドを超えるフレームワークが必要である。
論文 参考訳(メタデータ) (2025-03-10T16:13:45Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Position: A taxonomy for reporting and describing AI security incidents [57.98317583163334]
AIシステムのセキュリティインシデントを記述し報告するためには、具体的が必要である、と我々は主張する。
非AIセキュリティまたは汎用AI安全インシデントレポートの既存のフレームワークは、AIセキュリティの特定の特性をキャプチャするには不十分である。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Understanding the First Wave of AI Safety Institutes: Characteristics, Functions, and Challenges [0.0]
2023年11月、英国と米国はAI安全研究所の創設を発表した。
このプライマーは「第1波」という類似のクラスターの1つのクラスタを記述する。
第一波にはいくつかの基本的な特徴がある。
論文 参考訳(メタデータ) (2024-10-11T19:50:23Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Unveiling Legitimacy in the unexpected events context : An Inquiry into Information System Consultancy companies and international organizations through Topic Modeling Analysis [0.0]
本研究は、ISコンサルタント会社と国際機関の2つの主要な利害関係者のコミュニケーションに焦点を当てる。
この目的を達成するため,両俳優が出版する多種多様な出版物について検討した。
論文 参考訳(メタデータ) (2024-07-08T07:44:03Z) - "Model Cards for Model Reporting" in 2024: Reclassifying Category of Ethical Considerations in Terms of Trustworthiness and Risk Management [0.0]
2019年、"Model Cards for Model Reporting"と題された論文は、モデルパフォーマンスを文書化する新しいツールを導入した。
この論文で詳述されたカテゴリの1つは倫理的考察であり、データのサブカテゴリ、人間の生活、緩和、リスクと害、ユースケースが含まれる。
我々は、信頼に値するAIとして知られる分野の成熟により、このカテゴリをオリジナルのモデルカードに再分類することを提案する。
論文 参考訳(メタデータ) (2024-02-15T14:56:00Z) - Service Level Agreements and Security SLA: A Comprehensive Survey [51.000851088730684]
本調査では,SLA管理のコンセプト,アプローチ,オープンな課題を網羅する技術の現状を明らかにする。
これは、既存の調査で提案された分析と、このトピックに関する最新の文献とのギャップを包括的にレビューし、カバーすることで貢献する。
SLAライフサイクルの段階に基づく分析を組織化するための新しい分類基準を提案する。
論文 参考訳(メタデータ) (2024-01-31T12:33:41Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Complying with the EU AI Act [0.0]
EU AI法は、AIシステムに関するEUの法律である。
本稿では,AI法のいくつかのカテゴリについて述べる。
サイズやセクターなどの組織特性の影響について検討し,コンプライアンスへの影響について検討した。
論文 参考訳(メタデータ) (2023-07-19T21:04:46Z) - Information Retrieval Meets Large Language Models: A Strategic Report
from Chinese IR Community [180.28262433004113]
大規模言語モデル(LLM)は、テキスト理解、生成、知識推論において例外的な能力を示した。
LLMと人間は、情報検索のためにより強力な新しい技術パラダイムを形成します。
LLMがIR研究に与える影響を徹底的に議論するため、中国のIRコミュニティは2023年4月に戦略的ワークショップを開催した。
論文 参考訳(メタデータ) (2023-07-19T05:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。