論文の概要: Multi-AI Complex Systems in Humanitarian Response
- arxiv url: http://arxiv.org/abs/2208.11282v2
- Date: Wed, 21 Sep 2022 21:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:41:56.903645
- Title: Multi-AI Complex Systems in Humanitarian Response
- Title(参考訳): 人道的応答におけるマルチAI複合システム
- Authors: Joseph Aylett-Bullock, Miguel Luengo-Oroz
- Abstract要約: 比較的単純な現実世界の人道的応答シナリオにおいても、マルチAIシステムがいかにして発生しうるかを説明し、潜在的に創発的で不正な行動を引き起こす。
本論文は、人道的対応の分野におけるこのトピックに関する最初の展示として、意識を高め、このドメインの展望を探究し、より広いコミュニティにおける今後の仕事の出発点を提供するように設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI is being increasingly used to aid response efforts to humanitarian
emergencies at multiple levels of decision-making. Such AI systems are
generally understood to be stand-alone tools for decision support, with ethical
assessments, guidelines and frameworks applied to them through this lens.
However, as the prevalence of AI increases in this domain, such systems will
begin to encounter each other through information flow networks created by
interacting decision-making entities, leading to multi-AI complex systems which
are often ill understood. In this paper we describe how these multi-AI systems
can arise, even in relatively simple real-world humanitarian response
scenarios, and lead to potentially emergent and erratic erroneous behavior. We
discuss how we can better work towards more trustworthy multi-AI systems by
exploring some of the associated challenges and opportunities, and how we can
design better mechanisms to understand and assess such systems. This paper is
designed to be a first exposition on this topic in the field of humanitarian
response, raising awareness, exploring the possible landscape of this domain,
and providing a starting point for future work within the wider community.
- Abstract(参考訳): AIは、さまざまなレベルの意思決定において、人道的な緊急事態に対する対応を支援するために、ますます利用されています。
このようなAIシステムは一般的に、このレンズを通じて倫理的評価、ガイドライン、フレームワークが適用される、意思決定支援のためのスタンドアロンツールであると理解されている。
しかし、この領域でAIの普及が進むにつれて、そのようなシステムは意思決定エンティティの相互作用によって生成された情報フローネットワークを介して互いに遭遇し始め、しばしば理解されていないマルチAI複雑システムへと繋がる。
本稿では,比較的単純な実世界の人道的応答シナリオにおいても,これらのマルチAIシステムがいかにして発生しうるかを説明する。
我々は,関連する課題や機会を探求することで,より信頼性の高いマルチaiシステムに向けてよりよい作業を行う方法や,システムを理解し評価するための優れたメカニズムを設計する方法について論じる。
本稿は,人道的反応,意識の高まり,この領域の考えられる景観の探求,より広いコミュニティにおける今後の作業の出発点を提供する,人道的反応の分野において,このトピックに関する最初の展示となるようにデザインされている。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - A Survey on Context-Aware Multi-Agent Systems: Techniques, Challenges
and Future Directions [1.1458366773578277]
自律型エージェントに対する研究の関心が高まっている。
課題は、これらのエージェントが動的環境における不確実性を学び、推論し、ナビゲートできるようにすることである。
コンテキスト認識は、マルチエージェントシステムの強化において重要な要素として現れる。
論文 参考訳(メタデータ) (2024-02-03T00:27:22Z) - Emergent Explainability: Adding a causal chain to neural network
inference [0.0]
本稿では,創発的コミュニケーション(EmCom)による説明可能な人工知能(xAI)の強化のための理論的枠組みを提案する。
我々は、EmComのAIシステムへの新たな統合を探求し、入力と出力の間の従来の連想関係から、より微妙で因果的解釈へのパラダイムシフトを提供する。
本稿は、このアプローチの理論的基盤、潜在的に広い応用、そして、責任と透明なAIシステムに対するニーズの増大と整合性について論じる。
論文 参考訳(メタデータ) (2024-01-29T02:28:39Z) - Neurosymbolic Value-Inspired AI (Why, What, and How) [8.946847190099206]
本稿では,VAI(Value-Inspired AI)というニューロシンボリック・コンピューティング・フレームワークを提案する。
VAIは、人間の価値の様々な次元を表現し、統合することを目的としている。
我々は、この方向における現在の進歩についての洞察を提供し、この分野の将来的な方向性について概説する。
論文 参考訳(メタデータ) (2023-12-15T16:33:57Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - On the Importance of Domain-specific Explanations in AI-based
Cybersecurity Systems (Technical Report) [7.316266670238795]
このような決定に対する理解の欠如は、サイバーセキュリティに関連する重要なドメインにおいて大きな欠点となる可能性がある。
本稿では,AIベースのサイバーセキュリティシステムによって生成されたアウトプットを説明するために,デシダラタの提案と議論を行う。 (ii)デシダラタのレンズ下での文献におけるアプローチと,XAIアプローチの検証に一般的に使用される余分な次元の比較分析,および (iii)AIベースのサイバーセキュリティシステムの開発に向けた研究活動の指針となる一般的なアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2021-08-02T22:55:13Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。