論文の概要: Collaborative AI Needs Stronger Assurances Driven by Risks
- arxiv url: http://arxiv.org/abs/2112.00740v1
- Date: Wed, 1 Dec 2021 15:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:45:04.973993
- Title: Collaborative AI Needs Stronger Assurances Driven by Risks
- Title(参考訳): コラボレーションAIはリスクによって駆動されるより強い保証を必要とする
- Authors: Jubril Gbolahan Adigun, Matteo Camilli, Michael Felderer, Andrea
Giusti, Dominik T Matt, Anna Perini, Barbara Russo, Angelo Susi
- Abstract要約: 共同AIシステム(CAIS)は、共通の目標を達成するために、共有空間で人間と協力することを目的としている。
要件やドメイン固有の標準、規制の遵守を強く保証したシステムを構築することが、最も重要なのです。
- 参考スコア(独自算出の注目度): 5.657409854809804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative AI systems (CAISs) aim at working together with humans in a
shared space to achieve a common goal. This critical setting yields hazardous
circumstances that could harm human beings. Thus, building such systems with
strong assurances of compliance with requirements, domain-specific standards
and regulations is of greatest importance. Only few scale impact has been
reported so far for such systems since much work remains to manage possible
risks. We identify emerging problems in this context and then we report our
vision, as well as the progress of our multidisciplinary research team composed
of software/systems, and mechatronics engineers to develop a risk-driven
assurance process for CAISs.
- Abstract(参考訳): 共同AIシステム(CAIS)は、共通の目標を達成するために、共有空間で人間と協力することを目的としている。
この決定的な設定は、人間に危害を与える可能性のある危険な状況をもたらす。
したがって、要件、ドメイン固有の標準、規制に強く準拠したシステムを構築することが、最も重要である。
リスク管理に多くの作業が残っているため、このようなシステムに対する大規模な影響は報告されていない。
この文脈における新興問題を特定し、CAISのリスク駆動保証プロセスを開発するために、ソフトウェア/システムとメカトロニクスエンジニアで構成される多分野の研究チームの進捗を報告します。
関連論文リスト
- Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [67.38554763406098]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、安全を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Dynamic Risk Management in Cyber Physical Systems [1.932229781942544]
本稿では,協調型自動CPSの安全性保証課題について述べる。
これは、動的リスク管理に関する私たちのビジョンの概要を提供し、すでに存在するビルディングブロックについて説明する。
論文 参考訳(メタデータ) (2024-01-24T15:50:32Z) - PsySafe: A Comprehensive Framework for Psychological-based Attack,
Defense, and Evaluation of Multi-agent System Safety [73.51336434996931]
大規模言語モデル(LLM)で拡張されたマルチエージェントシステムは、集団知能において重要な能力を示す。
しかし、悪意のある目的のためにこのインテリジェンスを誤用する可能性があり、重大なリスクが生じる。
本研究では,エージェント心理学を基盤とした枠組み(PsySafe)を提案し,エージェントのダークパーソナリティ特性がリスク行動にどう影響するかを明らかにする。
実験の結果,エージェント間の集団的危険行動,エージェントが危険な行動を行う際の自己反射,エージェントの心理的評価と危険な行動との相関など,いくつかの興味深い現象が明らかになった。
論文 参考訳(メタデータ) (2024-01-22T12:11:55Z) - A Framework for Exploring the Consequences of AI-Mediated Enterprise
Knowledge Access and Identifying Risks to Workers [3.3096209174849824]
本稿では、AIを利用した企業知識アクセスシステムから労働者のリスクを特定するためのConsequence-Mechanism-Riskフレームワークを提案する。
我々は、労働者に対するリスクを詳述した幅広い文献を執筆し、労働者の価値、力、幸福に対するリスクを分類した。
今後の作業は、この枠組みを他の技術システムに適用し、労働者や他のグループの保護を促進する可能性がある。
論文 参考訳(メタデータ) (2023-12-08T17:05:40Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - A Brief Overview of AI Governance for Responsible Machine Learning
Systems [3.222802562733787]
このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
論文 参考訳(メタデータ) (2022-11-21T23:48:51Z) - Towards Risk Modeling for Collaborative AI [5.941104748966331]
コラボレーティブaiシステムは、共通の目標を達成するために、共有空間で人間と協力することを目指している。
この設定は、人間を傷つける可能性のある接触により、潜在的に危険な状況を引き起こす。
協調型AIシステムに合わせたリスクモデリング手法を紹介します。
論文 参考訳(メタデータ) (2021-03-12T18:53:06Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Towards a Policy-as-a-Service Framework to Enable Compliant, Trustworthy
AI and HRI Systems in the Wild [7.225523345649149]
信頼できる自律システムの構築は、単に「常に正しいことをする」エージェントを雇おうとする以上の多くの理由から難しい。
AIとHRIには、信頼の問題は本質的に社会技術的である、というより広い文脈がある。
本稿では, 信頼性の「ファジィ」な社会技術的側面と, 設計・展開の両面での配慮の必要性を強調した。
論文 参考訳(メタデータ) (2020-10-06T18:32:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。