論文の概要: What should AI see? Using the Public's Opinion to Determine the
Perception of an AI
- arxiv url: http://arxiv.org/abs/2206.04776v1
- Date: Thu, 9 Jun 2022 21:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 15:39:34.766273
- Title: What should AI see? Using the Public's Opinion to Determine the
Perception of an AI
- Title(参考訳): AIは何を見るべきか?
公の意見を使ってAIの知覚を決定する
- Authors: Robin Chan, Radin Dardashti, Meike Osinski, Matthias Rottmann, Dominik
Br\"uggemann, Cilia R\"ucker, Peter Schlicht, Fabian H\"uger, Nikol Rummel,
Hanno Gottschalk
- Abstract要約: 私たちは、AIアルゴリズムのコスト構造を定義するために、一般大衆に質問するオンライン調査を設置しました。
パースペクティブ(パスエンガー対外部交通参加者)とジェンダーの間には大きな違いがある。
これらの違いは、自動運転車に対する安全臨界距離における歩行者の確実な検出に影響を及ぼす。
- 参考スコア(独自算出の注目度): 7.798328343910498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNN) have made impressive progress in the
interpretation of image data, so that it is conceivable and to some degree
realistic to use them in safety critical applications like automated driving.
From an ethical standpoint, the AI algorithm should take into account the
vulnerability of objects or subjects on the street that ranges from "not at
all", e.g. the road itself, to "high vulnerability" of pedestrians. One way to
take this into account is to define the cost of confusion of one semantic
category with another and use cost-based decision rules for the interpretation
of probabilities, which are the output of DNNs. However, it is an open problem
how to define the cost structure, who should be in charge to do that, and
thereby define what AI-algorithms will actually "see". As one possible answer,
we follow a participatory approach and set up an online survey to ask the
public to define the cost structure. We present the survey design and the data
acquired along with an evaluation that also distinguishes between perspective
(car passenger vs. external traffic participant) and gender. Using simulation
based $F$-tests, we find highly significant differences between the groups.
These differences have consequences on the reliable detection of pedestrians in
a safety critical distance to the self-driving car. We discuss the ethical
problems that are related to this approach and also discuss the problems
emerging from human-machine interaction through the survey from a psychological
point of view. Finally, we include comments from industry leaders in the field
of AI safety on the applicability of survey based elements in the design of AI
functionalities in automated driving.
- Abstract(参考訳): ディープ・ニューラル・ネットワーク(dnn)は画像データの解釈において印象的な進歩を遂げており、自動走行のような安全上重要なアプリケーションでそれを使用するのはある程度現実的である。
倫理的観点から見れば、AIアルゴリズムは道路自体の「全くない」から歩行者の「高い脆弱性」まで、道路上の物体や対象の脆弱性を考慮に入れるべきである。
これを考慮する一つの方法は、ある意味圏と別の意味圏を混同するコストを定義し、DNNの出力である確率の解釈にコストベースの決定ルールを使用することである。
しかし、コスト構造を定義するにはオープンな問題であり、誰がそれを行うべきで、それによってAIアルゴリズムが実際に「見る」ものを定義する。
可能な答えの1つとして、私たちは参加型アプローチに従い、コスト構造を定義するよう国民に求めるオンライン調査を設定します。
本稿では, 客車利用者と外部交通参加者) の視点と性別を区別する評価とともに, 調査設計と得られたデータについて述べる。
シミュレーションに基づく$F$-testsを用いて,グループ間で有意な差が認められた。
これらの違いは、自動運転車に対する安全臨界距離における歩行者の確実な検出に影響を及ぼす。
本稿では,このアプローチに関連する倫理的問題を論じるとともに,心理学的観点からみた人間と機械の相互作用から生じる問題を論じる。
最後に、自動運転におけるAI機能設計におけるサーベイベースの要素の適用性について、AI安全分野の業界リーダーからのコメントを含む。
関連論文リスト
- Algorithmic Autonomy in Data-Driven AI [4.479796749093614]
アルゴリズムに絡み合った社会では、私たちの選択は、自動化されたシステムによって常に影響され、形作られています。
この収束は、データ駆動AIの時代における個人の自律性に対する重要な懸念を浮き彫りにする。
我々は、アルゴリズムの自律性の概念を探求し、アルゴリズムが社会に広まる影響に直面して、個人が自律性を持つことの意味を考察する。
論文 参考訳(メタデータ) (2024-11-07T22:16:20Z) - Exploring the Causality of End-to-End Autonomous Driving [57.631400236930375]
本稿では,エンドツーエンド自動運転の因果関係を探究し,分析するための包括的アプローチを提案する。
私たちの研究は、エンドツーエンドの自動運転の謎を初めて明らかにし、ブラックボックスを白い箱に変えた。
論文 参考訳(メタデータ) (2024-07-09T04:56:11Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Behavioral Intention Prediction in Driving Scenes: A Survey [70.53285924851767]
行動意図予測(BIP)は、人間の思考過程をシミュレートし、特定の行動の早期予測を満たす。
この作業は、利用可能なデータセット、重要な要因と課題、歩行者中心および車両中心のBIPアプローチ、BIP対応アプリケーションからのBIPの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2022-11-01T11:07:37Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - On Explainability in AI-Solutions: A Cross-Domain Survey [4.394025678691688]
システムモデルを自動的に導出する際、AIアルゴリズムは人間には検出できないデータで関係を学習する。
モデルが複雑になればなるほど、人間が意思決定の理由を理解するのが難しくなる。
この研究は、この話題に関する広範な文献調査を提供し、その大部分は、他の調査から成っている。
論文 参考訳(メタデータ) (2022-10-11T06:21:47Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Self-explaining AI as an alternative to interpretable AI [0.0]
二重降下は、深層ニューラルネットワークがデータポイント間のスムーズな補間によって動作することを示している。
複雑な現実世界のデータに基づいてトレーニングされたニューラルネットワークは、本質的に解釈が困難で、外挿を求めると失敗する傾向がある。
自己説明型AIは、決定と説明の両方の信頼性レベルとともに、人間に理解可能な説明を提供することができる。
論文 参考訳(メタデータ) (2020-02-12T18:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。