論文の概要: Domain-Level Explainability -- A Challenge for Creating Trust in
Superhuman AI Strategies
- arxiv url: http://arxiv.org/abs/2011.06665v1
- Date: Thu, 12 Nov 2020 21:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 07:18:36.268888
- Title: Domain-Level Explainability -- A Challenge for Creating Trust in
Superhuman AI Strategies
- Title(参考訳): ドメインレベルの説明可能性 - 超人的AI戦略における信頼の創出への挑戦
- Authors: Jonas Andrulis, Ole Meyer, Gr\'egory Schott, Samuel Weinbach and
Volker Gruhn
- Abstract要約: 戦略的問題に対して、Deep Reinforcement Learning (DRL)に基づくインテリジェントシステムは、高度なソリューションを学習する素晴らしい能力を示した。
この技術を現実の問題に適用することは、重大なリスクをもたらし、それゆえ、透明性と信頼性を信頼する必要がある。
我々は,超人的DRL戦略の存在,その特性,要求と現実環境への転換の課題について論じる。
- 参考スコア(独自算出の注目度): 8.910670021706562
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: For strategic problems, intelligent systems based on Deep Reinforcement
Learning (DRL) have demonstrated an impressive ability to learn advanced
solutions that can go far beyond human capabilities, especially when dealing
with complex scenarios. While this creates new opportunities for the
development of intelligent assistance systems with groundbreaking
functionalities, applying this technology to real-world problems carries
significant risks and therefore requires trust in their transparency and
reliability. With superhuman strategies being non-intuitive and complex by
definition and real-world scenarios prohibiting a reliable performance
evaluation, the key components for trust in these systems are difficult to
achieve. Explainable AI (XAI) has successfully increased transparency for
modern AI systems through a variety of measures, however, XAI research has not
yet provided approaches enabling domain level insights for expert users in
strategic situations. In this paper, we discuss the existence of superhuman
DRL-based strategies, their properties, the requirements and challenges for
transforming them into real-world environments, and the implications for trust
through explainability as a key technology.
- Abstract(参考訳): 戦略的問題に対して、Deep Reinforcement Learning (DRL)に基づくインテリジェントシステムは、特に複雑なシナリオを扱う場合に、人間の能力をはるかに越える高度なソリューションを学ぶという印象的な能力を示した。
これは画期的な機能を持つ知的支援システムを開発する新しい機会を生み出すが、この技術を現実世界の問題に適用することは重大なリスクを伴い、透明性と信頼性を信頼する必要がある。
超人的戦略は非直観的で複雑なものであり、実世界のシナリオでは信頼性の高い性能評価が禁止されているため、これらのシステムに対する信頼の鍵となるコンポーネントは達成が困難である。
説明可能なAI(XAI)は、さまざまな手段を通じて、現代のAIシステムに対する透明性を高めることに成功したが、XAI研究はまだ、戦略的状況において専門家ユーザに対してドメインレベルの洞察を可能にするアプローチを提供していない。
本稿では,超人的DRL戦略の存在,その特性,現実環境への転換に必要な要件と課題,そして重要な技術としての説明可能性による信頼の意義について論じる。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - Proceedings of the Robust Artificial Intelligence System Assurance
(RAISA) Workshop 2022 [0.0]
RAISAワークショップは、堅牢な人工知能(AI)と機械学習(ML)システムの研究、開発、応用に焦点を当てる。
特定のMLアルゴリズムに関してロバストネスを研究するのではなく、システムアーキテクチャのレベルでロバストネスの保証を検討することを目的としています。
論文 参考訳(メタデータ) (2022-02-10T01:15:50Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。