論文の概要: Robots in the Danger Zone: Exploring Public Perception through
Engagement
- arxiv url: http://arxiv.org/abs/2004.00689v1
- Date: Wed, 1 Apr 2020 20:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:33:46.745872
- Title: Robots in the Danger Zone: Exploring Public Perception through
Engagement
- Title(参考訳): 危険地帯のロボット:エンゲージメントによる公衆の認識を探る
- Authors: David A. Robb, Muneeb I. Ahmad, Carlo Tiseo, Simona Aracri, Alistair
C. McConnell, Vincent Page, Christian Dondrup, Francisco J. Chiyah Garcia,
Hai-Nguyen Nguyen, \`Eric Pairet, Paola Ard\'on Ram\'irez, Tushar Semwal,
Hazel M. Taylor, Lindsay J. Wilson, David Lane, Helen Hastie, Katrin Lohan
- Abstract要約: ロボットと人工知能(RAI)に対する大衆の認識は、受容、取り込み、政府の規制、研究資金において重要である。
近年の研究では、一般大衆のRAIに対する理解は否定的あるいは不正確であることが示されている。
個人での公的なエンゲージメント活動における高いスループットの最初のイテレーションについて説明する。
- 参考スコア(独自算出の注目度): 4.051559940977775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public perceptions of Robotics and Artificial Intelligence (RAI) are
important in the acceptance, uptake, government regulation and research funding
of this technology. Recent research has shown that the public's understanding
of RAI can be negative or inaccurate. We believe effective public engagement
can help ensure that public opinion is better informed. In this paper, we
describe our first iteration of a high throughput in-person public engagement
activity. We describe the use of a light touch quiz-format survey instrument to
integrate in-the-wild research participation into the engagement, allowing us
to probe both the effectiveness of our engagement strategy, and public
perceptions of the future roles of robots and humans working in dangerous
settings, such as in the off-shore energy sector. We critique our methods and
share interesting results into generational differences within the public's
view of the future of Robotics and AI in hazardous environments. These findings
include that older peoples' views about the future of robots in hazardous
environments were not swayed by exposure to our exhibit, while the views of
younger people were affected by our exhibit, leading us to consider carefully
in future how to more effectively engage with and inform older people.
- Abstract(参考訳): ロボットと人工知能(RAI)に対する大衆の認識は、この技術の受容、取り込み、政府の規制、研究資金において重要である。
近年の研究では、国民のraiに対する理解が否定的あるいは不正確であることが示されている。
効果的な市民参加は、世論がより良く伝えられることを保証するのに役立つと信じています。
本稿では,高スループットな個人内エンゲージメント活動の最初のイテレーションについて述べる。
本稿では,実地調査参加を参加に組み込むための,ライトタッチクイズ形式の調査装置の使用について述べるとともに,参加戦略の有効性と,オフショアエネルギー部門など,危険な環境で作業するロボットや人間の将来の役割に関する一般の認識の両方について検討する。
我々は,我々の手法を批判し,危険な環境におけるロボット工学とaiの将来観における世代差について興味深い結果を共有する。
これらの結果から, 危険環境におけるロボットの将来に対する高齢者の見解は, 展示物への露出によって揺るがされなかったが, 若者の視点は展示物に影響され, 今後, 高齢者とより効果的に関わり, 知らせる方法について, 慎重に検討した。
関連論文リスト
- A Disruptive Research Playbook for Studying Disruptive Innovations [11.619658523864686]
本稿では、説得力があり社会的に関係のある研究課題を定式化するためのガイドを提供するための研究プレイブックを提案する。
私たちは、AIとAR/VRの2つの破壊的なテクノロジの影響を疑問視するために使用することができることを示しています。
論文 参考訳(メタデータ) (2024-02-20T19:13:36Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - How Knowledge Workers Think Generative AI Will (Not) Transform Their
Industries [8.905979033108888]
ジェネレーティブAIは、複数の知識産業に変革をもたらすことが期待されている。
我々は,7つの異なる産業を対象とした参加型研究ワークショップを実施し,米国3都市で54人の参加者を集めた。
生成的AIの影響に対する参加者の期待について述べる。
論文 参考訳(メタデータ) (2023-10-10T16:53:52Z) - Anticipating Impacts: Using Large-Scale Scenario Writing to Explore
Diverse Implications of Generative AI in the News Environment [3.660182910533372]
我々は、ジェネレーティブAIの潜在的なネガティブな影響について、3つの利害関係者グループの展望を広げ、期待を捉えることを目的としている。
シナリオ記述と参加観を用いて、認知的に多様な未来の想像力を掘り下げる。
生成的AI影響評価のためのツールボックスとして,シナリオ記述と参加予測の有用性について論じる。
論文 参考訳(メタデータ) (2023-10-10T06:59:27Z) - Perceptions and Realities of Text-to-Image Generation [8.557266099784561]
生成人工知能(AI)は広く普及している技術であり、社会や個人に大きな影響を与える。
本研究は,テキスト・ツー・イメージ・ジェネレーションに対する人々の認識に関する調査研究の成果である。
論文 参考訳(メタデータ) (2023-06-14T08:53:07Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Imagining new futures beyond predictive systems in child welfare: A
qualitative study with impacted stakeholders [89.6319385008397]
児童福祉システムに影響を及ぼした利害関係者35名を対象に,7つのデザインワークショップを開催した。
対象者は,現在のPRMが児童福祉における既存の問題を持続的又は悪化させることを懸念した。
参加者は、データとデータ駆動ツールを使って、影響のあるコミュニティをより良くサポートする方法を提案した。
論文 参考訳(メタデータ) (2022-05-18T13:49:55Z) - Proposing an Interactive Audit Pipeline for Visual Privacy Research [0.0]
我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
論文 参考訳(メタデータ) (2021-11-07T01:51:43Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。