論文の概要: Robots in the Danger Zone: Exploring Public Perception through
Engagement
- arxiv url: http://arxiv.org/abs/2004.00689v1
- Date: Wed, 1 Apr 2020 20:10:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:33:46.745872
- Title: Robots in the Danger Zone: Exploring Public Perception through
Engagement
- Title(参考訳): 危険地帯のロボット:エンゲージメントによる公衆の認識を探る
- Authors: David A. Robb, Muneeb I. Ahmad, Carlo Tiseo, Simona Aracri, Alistair
C. McConnell, Vincent Page, Christian Dondrup, Francisco J. Chiyah Garcia,
Hai-Nguyen Nguyen, \`Eric Pairet, Paola Ard\'on Ram\'irez, Tushar Semwal,
Hazel M. Taylor, Lindsay J. Wilson, David Lane, Helen Hastie, Katrin Lohan
- Abstract要約: ロボットと人工知能(RAI)に対する大衆の認識は、受容、取り込み、政府の規制、研究資金において重要である。
近年の研究では、一般大衆のRAIに対する理解は否定的あるいは不正確であることが示されている。
個人での公的なエンゲージメント活動における高いスループットの最初のイテレーションについて説明する。
- 参考スコア(独自算出の注目度): 4.051559940977775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public perceptions of Robotics and Artificial Intelligence (RAI) are
important in the acceptance, uptake, government regulation and research funding
of this technology. Recent research has shown that the public's understanding
of RAI can be negative or inaccurate. We believe effective public engagement
can help ensure that public opinion is better informed. In this paper, we
describe our first iteration of a high throughput in-person public engagement
activity. We describe the use of a light touch quiz-format survey instrument to
integrate in-the-wild research participation into the engagement, allowing us
to probe both the effectiveness of our engagement strategy, and public
perceptions of the future roles of robots and humans working in dangerous
settings, such as in the off-shore energy sector. We critique our methods and
share interesting results into generational differences within the public's
view of the future of Robotics and AI in hazardous environments. These findings
include that older peoples' views about the future of robots in hazardous
environments were not swayed by exposure to our exhibit, while the views of
younger people were affected by our exhibit, leading us to consider carefully
in future how to more effectively engage with and inform older people.
- Abstract(参考訳): ロボットと人工知能(RAI)に対する大衆の認識は、この技術の受容、取り込み、政府の規制、研究資金において重要である。
近年の研究では、国民のraiに対する理解が否定的あるいは不正確であることが示されている。
効果的な市民参加は、世論がより良く伝えられることを保証するのに役立つと信じています。
本稿では,高スループットな個人内エンゲージメント活動の最初のイテレーションについて述べる。
本稿では,実地調査参加を参加に組み込むための,ライトタッチクイズ形式の調査装置の使用について述べるとともに,参加戦略の有効性と,オフショアエネルギー部門など,危険な環境で作業するロボットや人間の将来の役割に関する一般の認識の両方について検討する。
我々は,我々の手法を批判し,危険な環境におけるロボット工学とaiの将来観における世代差について興味深い結果を共有する。
これらの結果から, 危険環境におけるロボットの将来に対する高齢者の見解は, 展示物への露出によって揺るがされなかったが, 若者の視点は展示物に影響され, 今後, 高齢者とより効果的に関わり, 知らせる方法について, 慎重に検討した。
関連論文リスト
- Public sentiments on the fourth industrial revolution: An unsolicited public opinion poll from Twitter [0.0]
本稿は、第4次産業革命(4IR)に関する公的な認識を、6カ国にわたるソーシャルメディアの議論の分析を通じて探求する。
感情分析と機械学習技術を用いて、人工知能やロボティクス、ブロックチェーンといったテクノロジの社会への統合に対して、一般人がどのように反応するかを評価する。
結果は、中立的な立場からより決定的な立場へ移行し、技術的な影響を受け入れるか、抵抗するかのどちらかで、意見の顕著な分極を浮き彫りにした。
論文 参考訳(メタデータ) (2024-11-21T15:39:53Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Misrepresented Technological Solutions in Imagined Futures: The Origins and Dangers of AI Hype in the Research Community [0.060998359915727114]
我々は、AIハイプの起源とリスクを、研究コミュニティや社会に広く検討する。
我々は、研究者、規制当局、そして一般市民がこれらのリスクを軽減し、この技術に関する根拠のない主張の頻度を減らすための一連の措置を提案する。
論文 参考訳(メタデータ) (2024-08-08T20:47:17Z) - Public Perception of AI: Sentiment and Opportunity [0.0]
我々は、世界中の4大陸10カ国で1万人の回答者を対象に行われた調査から、AIに対する大衆の認識の結果を提示する。
その結果、現在AIが世界を変えると信じている回答者の同じ割合が、私たちが知っているように、AIを厳しく規制する必要があると信じていることがわかった。
論文 参考訳(メタデータ) (2024-07-22T19:11:28Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Anticipating Impacts: Using Large-Scale Scenario Writing to Explore
Diverse Implications of Generative AI in the News Environment [3.660182910533372]
我々は、ジェネレーティブAIの潜在的なネガティブな影響について、3つの利害関係者グループの展望を広げ、期待を捉えることを目的としている。
シナリオ記述と参加観を用いて、認知的に多様な未来の想像力を掘り下げる。
生成的AI影響評価のためのツールボックスとして,シナリオ記述と参加予測の有用性について論じる。
論文 参考訳(メタデータ) (2023-10-10T06:59:27Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [64.77385130665128]
このワークショップの目的は、人間とロボットの効果的で長期にわたるコラボレーションに向けた過去および現在進行中の研究についての洞察の交換を促進することである。
特に、自律的およびプロアクティブなインタラクションを実装するために必要なAI技術に焦点を当てています。
論文 参考訳(メタデータ) (2022-06-07T11:12:45Z) - Imagining new futures beyond predictive systems in child welfare: A
qualitative study with impacted stakeholders [89.6319385008397]
児童福祉システムに影響を及ぼした利害関係者35名を対象に,7つのデザインワークショップを開催した。
対象者は,現在のPRMが児童福祉における既存の問題を持続的又は悪化させることを懸念した。
参加者は、データとデータ駆動ツールを使って、影響のあるコミュニティをより良くサポートする方法を提案した。
論文 参考訳(メタデータ) (2022-05-18T13:49:55Z) - Proposing an Interactive Audit Pipeline for Visual Privacy Research [0.0]
我々は、システムにおけるバイアスと公平性の問題を発見し、責任ある人間対ループの必要性を主張し、有害な社会的影響を持つ研究課題を探求する必要性を反映するために公正性を利用することについて議論する。
私たちの目標は、視覚的プライバシとバイアスの問題に対して、機械学習パイプラインの体系的な分析を提供することです。
論文 参考訳(メタデータ) (2021-11-07T01:51:43Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。