論文の概要: A.I. Robustness: a Human-Centered Perspective on Technological
Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2210.08906v1
- Date: Mon, 17 Oct 2022 10:00:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 18:53:03.383367
- Title: A.I. Robustness: a Human-Centered Perspective on Technological
Challenges and Opportunities
- Title(参考訳): A.I.ロバストネス : 技術的課題と機会に関する人間中心の視点
- Authors: Andrea Tocchetti, Lorenzo Corti, Agathe Balayn, Mireia Yurrita, Philip
Lippmann, Marco Brambilla, and Jie Yang
- Abstract要約: 人工知能(AI)システムのロバスト性はいまだ解明されておらず、大規模な採用を妨げる重要な問題となっている。
本稿では,基本的・応用的両面から文献を整理・記述する3つの概念を紹介する。
我々は、人間が提供できる必要な知識を考慮して、AIの堅牢性を評価し、向上する上で、人間の中心的な役割を強調します。
- 参考スコア(独自算出の注目度): 8.17368686298331
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the impressive performance of Artificial Intelligence (AI) systems,
their robustness remains elusive and constitutes a key issue that impedes
large-scale adoption. Robustness has been studied in many domains of AI, yet
with different interpretations across domains and contexts. In this work, we
systematically survey the recent progress to provide a reconciled terminology
of concepts around AI robustness. We introduce three taxonomies to organize and
describe the literature both from a fundamental and applied point of view: 1)
robustness by methods and approaches in different phases of the machine
learning pipeline; 2) robustness for specific model architectures, tasks, and
systems; and in addition, 3) robustness assessment methodologies and insights,
particularly the trade-offs with other trustworthiness properties. Finally, we
identify and discuss research gaps and opportunities and give an outlook on the
field. We highlight the central role of humans in evaluating and enhancing AI
robustness, considering the necessary knowledge humans can provide, and discuss
the need for better understanding practices and developing supportive tools in
the future.
- Abstract(参考訳): 人工知能(AI)システムの優れたパフォーマンスにもかかわらず、その堅牢性はいまだ解明されておらず、大規模な採用を妨げる重要な問題となっている。
ロバストネスはAIの多くの領域で研究されてきたが、ドメインとコンテキストの異なる解釈で研究されている。
本研究は,最近の進歩を体系的に調査し,aiの堅牢性に関する概念の調和した用語を提供する。
基本的・応用的な観点から、文献を整理・記述するために3つの分類法を導入する。
1) 機械学習パイプラインの異なるフェーズにおける方法とアプローチによる堅牢性。
2) 特定のモデルアーキテクチャ、タスク、システムに対する堅牢性に加えて、
3)堅牢性評価手法及び洞察、特に他の信頼性特性とのトレードオフ
最後に,研究のギャップと機会を特定し,議論し,この分野の展望を示す。
我々は、AIの堅牢性を評価し、強化する上で、人間の中心的な役割を強調し、人間が提供できる必要な知識を考慮し、よりよい理解の実践と将来的な支援ツールの開発の必要性について議論する。
関連論文リスト
- Establishing and Evaluating Trustworthy AI: Overview and Research Challenges [4.806063079434686]
一部のAIシステムは予期せぬ結果または望ましくない結果をもたらすか、疑わしい方法で使用された。
本稿では,信頼に値するAIの既存の概念を6つの要件に従って合成する。
幅広い読者の参考として、そして将来の研究方向性の基礎として機能することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T06:05:52Z) - Socio-Economic Consequences of Generative AI: A Review of Methodological Approaches [0.0]
我々は、生成AIの導入による経済的および社会的影響を予測するのに使用される主要な方法論を特定する。
総合的な文献レビューを通じて、我々はこの技術革命の多面的影響を評価するための様々な方法論を明らかにした。
論文 参考訳(メタデータ) (2024-11-14T09:40:25Z) - AI-Driven Human-Autonomy Teaming in Tactical Operations: Proposed Framework, Challenges, and Future Directions [10.16399860867284]
人工知能(AI)技術は、人間の意思決定能力を増強することで戦術的操作を変革している。
本稿では,AI駆動型人間自律チーム(HAT)を変革的アプローチとして検討する。
我々はAI駆動型HATの重要なコンポーネントに対処する包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-28T15:05:16Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Understanding the Application of Utility Theory in Robotics and
Artificial Intelligence: A Survey [5.168741399695988]
このユーティリティは、経済学、ゲーム理論、およびオペレーション研究において、ロボティクスとAI分野においても統一された概念である。
本稿では,エージェントのインタラクション間の相互関係を記述し,評価するためのユーティリティ指向の要求パラダイムを提案する。
論文 参考訳(メタデータ) (2023-06-15T18:55:48Z) - Explainable Deep Reinforcement Learning: State of the Art and Challenges [1.005130974691351]
解釈可能性、説明可能性、透明性は、多くの重要な領域で人工知能メソッドを導入する上で重要な問題である。
本稿では, 深層強化学習法について解説する技術の現状について概説する。
論文 参考訳(メタデータ) (2023-01-24T11:41:25Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。