論文の概要: A design of human-like robust AI machines in object identification
- arxiv url: http://arxiv.org/abs/2101.02327v1
- Date: Thu, 7 Jan 2021 02:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 13:49:10.612590
- Title: A design of human-like robust AI machines in object identification
- Title(参考訳): 物体識別における人間型ロバストaiマシンの設計
- Authors: Bao-Gang Hu and Wei-Ming Dong
- Abstract要約: AIマシンの人間的堅牢性(HLR)を定義します。
HLRは、HLRの観点で評価することを含む、HLRでAIマシンを強制することを目指しています。
チューリングによる視点や設計と同様に、我々はhlr aiマシンをどのように達成するかの解決策を提供する。
- 参考スコア(独自算出の注目度): 22.725436010277516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This is a perspective paper inspired from the study of Turing Test proposed
by A.M. Turing (23 June 1912 - 7 June 1954) in 1950. Following one important
implication of Turing Test for enabling a machine with a human-like behavior or
performance, we define human-like robustness (HLR) for AI machines. The
objective of the new definition aims to enforce AI machines with HLR, including
to evaluate them in terms of HLR. A specific task is discussed only on object
identification, because it is the most common task for every person in daily
life. Similar to the perspective, or design, position by Turing, we provide a
solution of how to achieve HLR AI machines without constructing them and
conducting real experiments. The solution should consists of three important
features in the machines. The first feature of HLR machines is to utilize
common sense from humans for realizing a causal inference. The second feature
is to make a decision from a semantic space for having interpretations to the
decision. The third feature is to include a "human-in-the-loop" setting for
advancing HLR machines. We show an "identification game" using proposed design
of HLR machines. The present paper shows an attempt to learn and explore
further from Turing Test towards the design of human-like AI machines.
- Abstract(参考訳): これは1950年に A.M. Turing (1912年6月23日 - 1954年6月7日) が提唱したチューリングテストの研究から着想を得た遠近法である。
ヒューマンライクな動作やパフォーマンスを持つマシンを実現するためのチューリングテストの重要な意味に続き、AIマシンに対するヒューマンライクな堅牢性(HLR)を定義する。
新しい定義の目的は、HLRの観点で評価することを含む、AIマシンをHLRで強制することである。
特定のタスクは、日常のすべての人にとって最も一般的なタスクであるため、オブジェクトの識別についてのみ議論される。
チューリングによる視点や設計と同様に、我々はhlr aiマシンを構築し、実際の実験を行うことなく達成する方法のソリューションを提供する。
ソリューションは3つの重要な機能から構成されるべきである。
HLRマシンの最初の特徴は、人間からの常識を利用して因果推論を実現することである。
2つ目の特徴は、決定に解釈を持つための意味空間から決定を行うことである。
第3の機能は、HLRマシンを前進させるための"Human-in-the-loop"設定を含むことである。
提案するHLRマシンの設計を用いて「識別ゲーム」を示す。
本稿では、チューリングテストから人間のようなAIマシンの設計に向けて、さらに学び、探求する試みを示す。
関連論文リスト
- What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - PROGrasp: Pragmatic Human-Robot Communication for Object Grasping [22.182690439449278]
対話型オブジェクトグラスピング(IOG)は、人間とロボットの自然言語による対話を通じて、望ましいオブジェクトを識別し、把握するタスクである。
Pragmatic-IOG タスクとそれに対応するデータセット Intention-oriented Multi-Modal Dialogue (IM-Dial) を導入する。
Prograspは、視覚的なグラウンドニング、質問、オブジェクトの把握、そして最も重要なのは、実用的推論の解答解釈のモジュールを組み込むことで、Pragmatic-IOGを実行する。
論文 参考訳(メタデータ) (2023-09-14T14:45:47Z) - Can I say, now machines can think? [0.0]
人工知能対応マシンの能力を分析し,検討した。
チューリングテストは、機械の能力を評価する上で重要な側面である。
インテリジェンスには他にも側面があり、AIマシンはこれらの側面の多くを表現している。
論文 参考訳(メタデータ) (2023-07-11T11:44:09Z) - The Human-or-Machine Matter: Turing-Inspired Reflections on an Everyday
Issue [4.309879785418976]
マシンにインテリジェントなラベルを付けることができるのか、あるいは特定のコンテキストにおける人間の能力と一致すると言えるのか、という疑問を副次的に解決する。
「私は人間や機械と対話しているか」という、日常のやりとりの中で、一見単純な質問に最初に注意を向ける。
論文 参考訳(メタデータ) (2023-05-07T15:41:11Z) - Aligning Robot and Human Representations [50.070982136315784]
ロボット工学における現在の表現学習アプローチは、表現アライメントの目的がいかにうまく達成されているかの観点から研究されるべきである。
問題を数学的に定義し、その鍵となるデシダータを同定し、この形式主義の中に現在の方法を置く。
論文 参考訳(メタデータ) (2023-02-03T18:59:55Z) - Can Machines Imitate Humans? Integrative Turing Tests for Vision and Language Demonstrate a Narrowing Gap [45.6806234490428]
3つの言語タスクと3つのビジョンタスクで人間を模倣する能力において、現在のAIをベンチマークします。
実験では、549人の人間エージェントと26人のAIエージェントがデータセットの作成に使われ、1,126人の人間審査員と10人のAI審査員が参加した。
結果として、現在のAIは、複雑な言語とビジョンの課題において人間を偽装できるものではないことが判明した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - Can Foundation Models Perform Zero-Shot Task Specification For Robot
Manipulation? [54.442692221567796]
タスク仕様は、熟練していないエンドユーザの関与とパーソナライズされたロボットの採用に不可欠である。
タスク仕様に対する広く研究されているアプローチは、目標を通じて、コンパクトな状態ベクトルまたは同じロボットシーンのゴールイメージを使用することである。
そこで本研究では,人間の指定や使用が容易な目標仕様の代替的,より汎用的な形式について検討する。
論文 参考訳(メタデータ) (2022-04-23T19:39:49Z) - HAKE: A Knowledge Engine Foundation for Human Activity Understanding [65.24064718649046]
人間の活動理解は人工知能に広く興味を持ち、医療や行動分析といった多様な応用にまたがっている。
本稿では,この課題を2段階にまとめた新しいパラダイムを提案する。まず,原子活動プリミティブを対象とする中間空間に画素をマッピングし,解釈可能な論理規則で検出されたプリミティブをプログラムして意味論を推論する。
我々のフレームワークであるHAKE(Human Activity Knowledge Engine)は、挑戦的なベンチマークよりも優れた一般化能力と性能を示す。
論文 参考訳(メタデータ) (2022-02-14T16:38:31Z) - Who is this Explanation for? Human Intelligence and Knowledge Graphs for
eXplainable AI [0.0]
我々は、eXplainable AIにヒューマンインテリジェンスがもたらす貢献に焦点を当てる。
我々は、知識表現と推論、社会科学、人間計算、人間-機械協調研究とのより優れた相互作用を求めている。
論文 参考訳(メタデータ) (2020-05-27T10:47:15Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。