論文の概要: Robots Enact Malignant Stereotypes
- arxiv url: http://arxiv.org/abs/2207.11569v1
- Date: Sat, 23 Jul 2022 18:08:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:10:39.934795
- Title: Robots Enact Malignant Stereotypes
- Title(参考訳): ロボットが悪性ステレオタイプを制定
- Authors: Andrew Hundt, William Agnew, Vicky Zeng, Severin Kacianka, Matthew
Gombolay
- Abstract要約: 我々は、世界で身体的かつ自律的に行動するロボットにおいて、機械学習のバイアスがどのように現れるかを評価する。
本実験は, 性別, 人種, 科学的に認識されていない生理学に関して, 有毒なステレオタイプを大規模に行動するロボットを明らかに示すものである。
- 参考スコア(独自算出の注目度): 0.2546155711229977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Stereotypes, bias, and discrimination have been extensively documented in
Machine Learning (ML) methods such as Computer Vision (CV) [18, 80], Natural
Language Processing (NLP) [6], or both, in the case of large image and caption
models such as OpenAI CLIP [14]. In this paper, we evaluate how ML bias
manifests in robots that physically and autonomously act within the world. We
audit one of several recently published CLIP-powered robotic manipulation
methods, presenting it with objects that have pictures of human faces on the
surface which vary across race and gender, alongside task descriptions that
contain terms associated with common stereotypes. Our experiments definitively
show robots acting out toxic stereotypes with respect to gender, race, and
scientifically-discredited physiognomy, at scale. Furthermore, the audited
methods are less likely to recognize Women and People of Color. Our
interdisciplinary sociotechnical analysis synthesizes across fields and
applications such as Science Technology and Society (STS), Critical Studies,
History, Safety, Robotics, and AI. We find that robots powered by large
datasets and Dissolution Models (sometimes called "foundation models", e.g.
CLIP) that contain humans risk physically amplifying malignant stereotypes in
general; and that merely correcting disparities will be insufficient for the
complexity and scale of the problem. Instead, we recommend that robot learning
methods that physically manifest stereotypes or other harmful outcomes be
paused, reworked, or even wound down when appropriate, until outcomes can be
proven safe, effective, and just. Finally, we discuss comprehensive policy
changes and the potential of new interdisciplinary research on topics like
Identity Safety Assessment Frameworks and Design Justice to better understand
and address these harms.
- Abstract(参考訳): コンピュータビジョン (CV) [18, 80] や自然言語処理 (NLP) [6] といった機械学習 (ML) の手法では,OpenAI CLIP [14] のような大画像やキャプションモデルの場合,ステレオタイプ,バイアス,識別が広く記録されている。
本稿では,世界において身体的かつ自律的に行動するロボットにおいて,MLバイアスがどのように現れるかを評価する。
最近発表されたクリップ駆動ロボット操作手法の1つを監査し、人種や性別にまたがる人間の顔の画像を持つオブジェクトと、共通のステレオタイプに関連する用語を含むタスク記述を提示した。
本実験は, 性別, 人種, 科学的に認知されていない生理学に関して, 有毒なステレオタイプを大規模に行動するロボットについて明らかに示す。
さらに、監査された方法は、女性や有色人種を認識する可能性が低い。
我々の学際的社会技術分析は、科学技術と社会(STS)、臨界研究、歴史、安全、ロボティクス、AIといった分野や応用にまたがって合成される。
我々は,ヒトを含む大規模データセットと溶解モデル(クリップなど「基礎モデル」と呼ばれることもある)を用いたロボットが,一般に悪性ステレオタイプを物理的に増幅するリスクを負うことを発見した。
その代わり、ステレオタイプやその他の有害な成果を物理的に示すロボット学習手法を、適切であれば停止、再作業、あるいは取り壊すことを推奨します。
最後に,アイデンティティ・セーフティ・アセスメント・フレームワーク (ids) やデザイン・ジャスティス (design justice) といったトピックに関する包括的政策変更と,新たな学際的な研究の可能性について論じる。
関連論文リスト
- What Matters to You? Towards Visual Representation Alignment for Robot
Learning [81.30964736676103]
人のために運用する場合、ロボットはエンドユーザーの好みに合わせて報酬を最適化する必要がある。
本稿では、視覚的表現アライメント問題を解決するためのRAPL(Representation-Aligned Preference-based Learning)を提案する。
論文 参考訳(メタデータ) (2023-10-11T23:04:07Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Pave the Way to Grasp Anything: Transferring Foundation Models for
Universal Pick-Place Robots [50.73735524550534]
そこで本稿では,最先端基礎モデルによって生成された言語基底セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
マスクから伝達される正確なセマンティクスとジオメトリを多視点ポリシーモデルに統合することにより、正確なオブジェクトのポーズを認識し、サンプル効率のよい学習を可能にする。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Fairness and Bias in Robot Learning [7.517692820105885]
本稿では,技術的,倫理的,法的課題にまたがる学際的な観点から,ロボット学習における公正性に関する最初の調査を紹介する。
偏見の源泉とその原因となる差別の分類法を提案する。
本稿では,公平性の定義,倫理的・法的考察,公平なロボット学習の方法などについて述べる。
論文 参考訳(メタデータ) (2022-07-07T17:20:15Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models [11.925808365657936]
人間のような社会ロボットを構築するには、知的で一般化可能な表情を生成する能力が不可欠である。
顔模倣のための視覚に基づく自己教師型学習フレームワークを開発した。
本手法は, 多様な被験者に対して, 正確かつ多様な顔の模倣を可能にする。
論文 参考訳(メタデータ) (2021-05-26T17:57:19Z) - Bayesian Meta-Learning for Few-Shot Policy Adaptation Across Robotic
Platforms [60.59764170868101]
強化学習手法は、重要な性能を達成できるが、同じロボットプラットフォームで収集される大量のトレーニングデータを必要とする。
私たちはそれを、さまざまなロボットプラットフォームで共有される共通の構造を捉えるモデルを見つけることを目標とする、数ショットのメタラーニング問題として定式化します。
我々は,400個のロボットを用いて,実ロボットピッキング作業とシミュレーションリーチの枠組みを実験的に評価した。
論文 参考訳(メタデータ) (2021-03-05T14:16:20Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。