論文の概要: A.I. Robustness: a Human-Centered Perspective on Technological
Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2210.08906v2
- Date: Wed, 19 Oct 2022 07:37:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:29:55.313052
- Title: A.I. Robustness: a Human-Centered Perspective on Technological
Challenges and Opportunities
- Title(参考訳): A.I.ロバストネス : 技術的課題と機会に関する人間中心の視点
- Authors: Andrea Tocchetti, Lorenzo Corti, Agathe Balayn, Mireia Yurrita, Philip
Lippmann, Marco Brambilla, and Jie Yang
- Abstract要約: 人工知能(AI)システムのロバスト性はいまだ解明されておらず、大規模な採用を妨げる重要な問題となっている。
本稿では,基本的・応用的両面から文献を整理・記述する3つの概念を紹介する。
我々は、人間が提供できる必要な知識を考慮して、AIの堅牢性を評価し、向上する上で、人間の中心的な役割を強調します。
- 参考スコア(独自算出の注目度): 8.17368686298331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the impressive performance of Artificial Intelligence (AI) systems,
their robustness remains elusive and constitutes a key issue that impedes
large-scale adoption. Robustness has been studied in many domains of AI, yet
with different interpretations across domains and contexts. In this work, we
systematically survey the recent progress to provide a reconciled terminology
of concepts around AI robustness. We introduce three taxonomies to organize and
describe the literature both from a fundamental and applied point of view: 1)
robustness by methods and approaches in different phases of the machine
learning pipeline; 2) robustness for specific model architectures, tasks, and
systems; and in addition, 3) robustness assessment methodologies and insights,
particularly the trade-offs with other trustworthiness properties. Finally, we
identify and discuss research gaps and opportunities and give an outlook on the
field. We highlight the central role of humans in evaluating and enhancing AI
robustness, considering the necessary knowledge humans can provide, and discuss
the need for better understanding practices and developing supportive tools in
the future.
- Abstract(参考訳): 人工知能(AI)システムの優れたパフォーマンスにもかかわらず、その堅牢性はいまだ解明されておらず、大規模な採用を妨げる重要な問題となっている。
ロバストネスはAIの多くの領域で研究されてきたが、ドメインとコンテキストの異なる解釈で研究されている。
本研究は,最近の進歩を体系的に調査し,aiの堅牢性に関する概念の調和した用語を提供する。
基本的・応用的な観点から、文献を整理・記述するために3つの分類法を導入する。
1) 機械学習パイプラインの異なるフェーズにおける方法とアプローチによる堅牢性。
2) 特定のモデルアーキテクチャ、タスク、システムに対する堅牢性に加えて、
3)堅牢性評価手法及び洞察、特に他の信頼性特性とのトレードオフ
最後に,研究のギャップと機会を特定し,議論し,この分野の展望を示す。
我々は、AIの堅牢性を評価し、強化する上で、人間の中心的な役割を強調し、人間が提供できる必要な知識を考慮し、よりよい理解の実践と将来的な支援ツールの開発の必要性について議論する。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - A Systematic Literature Review on Explainability for Machine/Deep
Learning-based Software Engineering Research [23.966640472958105]
本稿では,ソフトウェア工学の文脈におけるAIモデルの説明可能性の向上を目的とした,体系的な文献レビューを行う。
我々は,XAI技術がこれまで成功してきたSEタスク,(2)異なるXAI手法の分類と分析,(3)既存の評価手法を考察することを目的としている。
論文 参考訳(メタデータ) (2024-01-26T03:20:40Z) - On the Multiple Roles of Ontologies in Explainable AI [0.32634122554913997]
本稿では、明示的な知識、特に説明可能なAIで果たすことができるさまざまな役割について論じる。
本稿では、参照モデリング、常識推論、知識の洗練と複雑性管理の3つの主要な視点について考察する。
論文 参考訳(メタデータ) (2023-11-08T15:57:26Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Understanding the Application of Utility Theory in Robotics and
Artificial Intelligence: A Survey [5.168741399695988]
このユーティリティは、経済学、ゲーム理論、およびオペレーション研究において、ロボティクスとAI分野においても統一された概念である。
本稿では,エージェントのインタラクション間の相互関係を記述し,評価するためのユーティリティ指向の要求パラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-15T18:55:48Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - A Study of Situational Reasoning for Traffic Understanding [63.45021731775964]
トラフィック領域における状況推論のための3つの新しいテキストベースのタスクを考案する。
先行作業における言語推論タスクにまたがる一般化能力を示す知識強化手法を4つ採用する。
本稿では,データ分割におけるモデル性能の詳細な解析を行い,モデル予測を分類的に検討する。
論文 参考訳(メタデータ) (2023-06-05T01:01:12Z) - Explainable Deep Reinforcement Learning: State of the Art and Challenges [1.005130974691351]
解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
論文 参考訳(メタデータ) (2023-01-24T11:41:25Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。