論文の概要: Robots Enact Malignant Stereotypes
- arxiv url: http://arxiv.org/abs/2207.11569v1
- Date: Sat, 23 Jul 2022 18:08:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:10:39.934795
- Title: Robots Enact Malignant Stereotypes
- Title(参考訳): ロボットが悪性ステレオタイプを制定
- Authors: Andrew Hundt, William Agnew, Vicky Zeng, Severin Kacianka, Matthew
Gombolay
- Abstract要約: 我々は、世界で身体的かつ自律的に行動するロボットにおいて、機械学習のバイアスがどのように現れるかを評価する。
本実験は, 性別, 人種, 科学的に認識されていない生理学に関して, 有毒なステレオタイプを大規模に行動するロボットを明らかに示すものである。
- 参考スコア(独自算出の注目度): 0.2546155711229977
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Stereotypes, bias, and discrimination have been extensively documented in
Machine Learning (ML) methods such as Computer Vision (CV) [18, 80], Natural
Language Processing (NLP) [6], or both, in the case of large image and caption
models such as OpenAI CLIP [14]. In this paper, we evaluate how ML bias
manifests in robots that physically and autonomously act within the world. We
audit one of several recently published CLIP-powered robotic manipulation
methods, presenting it with objects that have pictures of human faces on the
surface which vary across race and gender, alongside task descriptions that
contain terms associated with common stereotypes. Our experiments definitively
show robots acting out toxic stereotypes with respect to gender, race, and
scientifically-discredited physiognomy, at scale. Furthermore, the audited
methods are less likely to recognize Women and People of Color. Our
interdisciplinary sociotechnical analysis synthesizes across fields and
applications such as Science Technology and Society (STS), Critical Studies,
History, Safety, Robotics, and AI. We find that robots powered by large
datasets and Dissolution Models (sometimes called "foundation models", e.g.
CLIP) that contain humans risk physically amplifying malignant stereotypes in
general; and that merely correcting disparities will be insufficient for the
complexity and scale of the problem. Instead, we recommend that robot learning
methods that physically manifest stereotypes or other harmful outcomes be
paused, reworked, or even wound down when appropriate, until outcomes can be
proven safe, effective, and just. Finally, we discuss comprehensive policy
changes and the potential of new interdisciplinary research on topics like
Identity Safety Assessment Frameworks and Design Justice to better understand
and address these harms.
- Abstract(参考訳): コンピュータビジョン (CV) [18, 80] や自然言語処理 (NLP) [6] といった機械学習 (ML) の手法では,OpenAI CLIP [14] のような大画像やキャプションモデルの場合,ステレオタイプ,バイアス,識別が広く記録されている。
本稿では,世界において身体的かつ自律的に行動するロボットにおいて,MLバイアスがどのように現れるかを評価する。
最近発表されたクリップ駆動ロボット操作手法の1つを監査し、人種や性別にまたがる人間の顔の画像を持つオブジェクトと、共通のステレオタイプに関連する用語を含むタスク記述を提示した。
本実験は, 性別, 人種, 科学的に認知されていない生理学に関して, 有毒なステレオタイプを大規模に行動するロボットについて明らかに示す。
さらに、監査された方法は、女性や有色人種を認識する可能性が低い。
我々の学際的社会技術分析は、科学技術と社会(STS)、臨界研究、歴史、安全、ロボティクス、AIといった分野や応用にまたがって合成される。
我々は,ヒトを含む大規模データセットと溶解モデル(クリップなど「基礎モデル」と呼ばれることもある)を用いたロボットが,一般に悪性ステレオタイプを物理的に増幅するリスクを負うことを発見した。
その代わり、ステレオタイプやその他の有害な成果を物理的に示すロボット学習手法を、適切であれば停止、再作業、あるいは取り壊すことを推奨します。
最後に,アイデンティティ・セーフティ・アセスメント・フレームワーク (ids) やデザイン・ジャスティス (design justice) といったトピックに関する包括的政策変更と,新たな学際的な研究の可能性について論じる。
関連論文リスト
- A Retrospective on the Robot Air Hockey Challenge: Benchmarking Robust, Reliable, and Safe Learning Techniques for Real-world Robotics [53.33976793493801]
私たちは、NeurIPS 2023カンファレンスでRobot Air Hockey Challengeを組織しました。
我々は、シム・トゥ・リアルギャップ、低レベルの制御問題、安全性問題、リアルタイム要件、実世界のデータの限られた可用性など、ロボット工学における実践的な課題に焦点を当てる。
その結果、学習に基づくアプローチと事前知識を組み合わせたソリューションは、実際のデプロイメントが困難である場合にデータのみに依存するソリューションよりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-08T17:20:47Z) - $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - A Survey of Embodied Learning for Object-Centric Robotic Manipulation [27.569063968870868]
オブジェクト中心のロボット操作のための身体学習は、AIの急速に発展し、挑戦的な分野である。
データ駆動機械学習とは異なり、具体化学習は環境との物理的相互作用を通じてロボット学習に焦点を当てる。
論文 参考訳(メタデータ) (2024-08-21T11:32:09Z) - LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions [3.1247504290622214]
研究は、大規模言語モデルが現実世界のロボット実験や応用において差別的な結果や安全でない行動をもたらす可能性を懸念している。
高い評価を受けたLLMの識別基準と安全性基準のHRIに基づく評価を行う。
結果から, 組織的, 定期的, 包括的リスクアセスメントと, 成果改善のための保証の必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2024-06-13T05:31:49Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Transferring Foundation Models for Generalizable Robotic Manipulation [82.12754319808197]
インターネット規模の基盤モデルによって生成された言語推論セグメンテーションマスクを効果的に活用する新しいパラダイムを提案する。
提案手法は,オブジェクトのポーズを効果的かつ堅牢に知覚し,サンプル効率のよい一般化学習を可能にする。
デモは提出されたビデオで見ることができ、より包括的なデモはlink1またはlink2で見ることができます。
論文 参考訳(メタデータ) (2023-06-09T07:22:12Z) - Fairness and Bias in Robot Learning [7.517692820105885]
本稿では,技術的,倫理的,法的課題にまたがる学際的な観点から,ロボット学習における公正性に関する最初の調査を紹介する。
偏見の源泉とその原因となる差別の分類法を提案する。
本稿では,公平性の定義,倫理的・法的考察,公平なロボット学習の方法などについて述べる。
論文 参考訳(メタデータ) (2022-07-07T17:20:15Z) - Human-Robot Collaboration and Machine Learning: A Systematic Review of
Recent Research [69.48907856390834]
人間ロボットコラボレーション(Human-robot collaboration、HRC)とは、人間とロボットの相互作用を探索する手法である。
本稿では,HRCの文脈における機械学習技術の利用に関する詳細な文献レビューを提案する。
論文 参考訳(メタデータ) (2021-10-14T15:14:33Z) - Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models [11.925808365657936]
人間のような社会ロボットを構築するには、知的で一般化可能な表情を生成する能力が不可欠である。
顔模倣のための視覚に基づく自己教師型学習フレームワークを開発した。
本手法は, 多様な被験者に対して, 正確かつ多様な顔の模倣を可能にする。
論文 参考訳(メタデータ) (2021-05-26T17:57:19Z) - Joint Inference of States, Robot Knowledge, and Human (False-)Beliefs [90.20235972293801]
本稿では,人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)・人間(時間的)の認知能力が,ロボットとの相互作用にどのように影響するかを理解するために,対象状態,ロボット知識,人間(時間的)の認知能力の表現にグラフィカルモデルを採用することを提案する。
推論アルゴリズムは、複数のビューにまたがる全てのロボットから個別のpgを融合し、単一のビューから発生したエラーを克服するより効果的な推論能力を得る。
論文 参考訳(メタデータ) (2020-04-25T23:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。