論文の概要: Measuring Difficulty of Novelty Reaction
- arxiv url: http://arxiv.org/abs/2207.13857v1
- Date: Thu, 28 Jul 2022 02:16:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:20:48.348495
- Title: Measuring Difficulty of Novelty Reaction
- Title(参考訳): 新規反応の難易度測定
- Authors: Ekaterina Nikonova, Cheng Xue, Vimukthini Pinto, Chathura Gamage, Peng
Zhang, Jochen Renz
- Abstract要約: 現在のAIシステムは、根底にある世界が多かれ少なかれ同じであるという仮定で、近世界の問題を解決するように設計されている。
オープンワールドのノベルティを扱うことは、ノベルティの難しさに関する重要な疑問を提起する。
あるノベルティが他のものよりも扱いにくいかどうかを知ることは、研究者がシステムを体系的に訓練するのに役立ちます。
- 参考スコア(独自算出の注目度): 4.904394978346107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current AI systems are designed to solve close-world problems with the
assumption that the underlying world is remaining more or less the same.
However, when dealing with real-world problems such assumptions can be invalid
as sudden and unexpected changes can occur. To effectively deploy AI-powered
systems in the real world, AI systems should be able to deal with open-world
novelty quickly. Inevitably, dealing with open-world novelty raises an
important question of novelty difficulty. Knowing whether one novelty is harder
to deal with than another, can help researchers to train their systems
systematically. In addition, it can also serve as a measurement of the
performance of novelty robust AI systems. In this paper, we propose to define
the novelty reaction difficulty as a relative difficulty of performing the
known task after the introduction of the novelty. We propose a universal method
that can be applied to approximate the difficulty. We present the
approximations of the difficulty using our method and show how it aligns with
the results of the evaluation of AI agents designed to deal with novelty.
- Abstract(参考訳): 現在のAIシステムは、根底にある世界が多かれ少なかれ同じであるという仮定で、近世界の問題を解決するように設計されている。
しかし、現実世界の問題を扱う場合、そのような仮定は突然無効になり、予期せぬ変化が起こる可能性がある。
AIを利用したシステムを現実世界に効果的に展開するためには、AIシステムはオープンワールドのノベルティに迅速に対処できる必要がある。
必然的に、オープンワールドのノベルティを扱うことは、ノベルティの難しさの重要な問題を引き起こす。
ある新しさが他よりも扱いにくいかどうかを知ることは、研究者がシステムを体系的に訓練するのに役立つ。
さらに、新規で堅牢なAIシステムの性能の測定にも役立てることができる。
本稿では,新規性導入後の既知の課題を実行することの比較的困難な課題として,新規性反応の難しさを定義することを提案する。
本稿では,難易度を近似する普遍的手法を提案する。
本稿では,本手法の難易度を近似し,新規性に対処するAIエージェントの評価結果とどのように一致しているかを示す。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Easy-to-Hard Generalization: Scalable Alignment Beyond Human Supervision [98.97575836717931]
現在のAIアライメント手法は、人間が提供する実演や判断に依存している。
彼らの能力が人間のレベルを超えたとき、システムを改善するにはどうすればよいのか?
論文 参考訳(メタデータ) (2024-03-14T15:12:38Z) - Open-world Machine Learning: A Review and New Outlooks [83.6401132743407]
本稿では,新たなオープンワールド機械学習パラダイムを包括的に紹介することを目的としている。
研究者がそれぞれの分野でより強力なAIシステムを構築するのを支援し、人工知能の開発を促進することを目的としている。
論文 参考訳(メタデータ) (2024-03-04T06:25:26Z) - Scalable AI Safety via Doubly-Efficient Debate [37.25328923531058]
強力な能力を持つ事前訓練されたAIシステムの出現は、AI安全性に対する重要な課題を提起している。
当初のフレームワークは、正直な戦略がAIシステムを指数関数的なステップでシミュレートできるという仮定に基づいていた。
新しいプロトコルを設計することで、これらの課題に対処する方法を示す。
論文 参考訳(メタデータ) (2023-11-23T17:46:30Z) - The Alignment Problem in Context [0.05657375260432172]
大規模言語モデルのアライメント問題を解決するために,私たちが現在進行中であるかどうかを評価する。
大規模な言語モデルは敵の攻撃に弱いままなので、アライメントのための既存の戦略は不十分である、と私は論じます。
これは、アライメント問題は現在のAIシステムでは未解決であるだけでなく、その能力を著しく損なうことなく、本質的に解決が困難であることを示している。
論文 参考訳(メタデータ) (2023-11-03T17:57:55Z) - Multi-AI Complex Systems in Humanitarian Response [0.0]
比較的単純な現実世界の人道的応答シナリオにおいても、マルチAIシステムがいかにして発生しうるかを説明し、潜在的に創発的で不正な行動を引き起こす。
本論文は、人道的対応の分野におけるこのトピックに関する最初の展示として、意識を高め、このドメインの展望を探究し、より広いコミュニティにおける今後の仕事の出発点を提供するように設計されている。
論文 参考訳(メタデータ) (2022-08-24T03:01:21Z) - Divide & Conquer Imitation Learning [75.31752559017978]
模倣学習は学習プロセスをブートストラップするための強力なアプローチである。
本稿では,専門的軌道の状態から複雑なロボットタスクを模倣する新しいアルゴリズムを提案する。
提案手法は,非ホロノミックナビゲーションタスクを模倣し,非常に高いサンプル効率で複雑なロボット操作タスクにスケールすることを示す。
論文 参考訳(メタデータ) (2022-04-15T09:56:50Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The Difficulty of Novelty Detection in Open-World Physical Domains: An
Application to Angry Birds [3.464871689508836]
オープンワールドでは、新規性は多くの異なる形態で現れ、容易に、あるいは検出することが難しい。
本研究では,オープンワールドな物理領域に着目した新規性検出の難しさを定量化する定性物理に基づく手法を提案する。
その結果, 計算した検出困難度は, ユーザのものと一致していることがわかった。
論文 参考訳(メタデータ) (2021-06-16T10:14:09Z) - Adversarial Interaction Attack: Fooling AI to Misinterpret Human
Intentions [46.87576410532481]
現在の大きな成功にもかかわらず、ディープラーニングベースのAIシステムは、微妙な敵対的ノイズによって容易に騙されることを示した。
骨格に基づくヒトの相互作用のケーススタディに基づき、相互作用に対する新しい敵対的攻撃を提案する。
本研究では、安全クリティカルなアプリケーションにAIシステムをデプロイする際に慎重に対処する必要があるAIと人間との相互作用ループにおける潜在的なリスクを強調します。
論文 参考訳(メタデータ) (2021-01-17T16:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。