論文の概要: Trustworthy Human Computation: A Survey
- arxiv url: http://arxiv.org/abs/2210.12324v1
- Date: Sat, 22 Oct 2022 01:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 17:01:27.313579
- Title: Trustworthy Human Computation: A Survey
- Title(参考訳): 信頼できる人間の計算:調査
- Authors: Hisashi Kashima, Satoshi Oyama, Hiromi Arai, and Junichiro Mori
- Abstract要約: 人間計算は「ユーザーとしての人間人口」と「運転力としての人間人口」の両方と密接な関係を必要とする。
本調査は,信頼性の高い人間計算の実現に向けた基礎研究である。
- 参考スコア(独自算出の注目度): 21.434956224643294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human computation is an approach to solving problems that prove difficult
using AI only, and involves the cooperation of many humans. Because human
computation requires close engagement with both "human populations as users"
and "human populations as driving forces," establishing mutual trust between AI
and humans is an important issue to further the development of human
computation. This survey lays the groundwork for the realization of trustworthy
human computation. First, the trustworthiness of human computation as computing
systems, that is, trust offered by humans to AI, is examined using the RAS
(Reliability, Availability, and Serviceability) analogy, which define measures
of trustworthiness in conventional computer systems. Next, the social
trustworthiness provided by human computation systems to users or participants
is discussed from the perspective of AI ethics, including fairness, privacy,
and transparency. Then, we consider human--AI collaboration based on two-way
trust, in which humans and AI build mutual trust and accomplish difficult tasks
through reciprocal collaboration. Finally, future challenges and research
directions for realizing trustworthy human computation are discussed.
- Abstract(参考訳): 人間計算は、AIのみを使用して難しい問題を解くためのアプローチであり、多くの人間の協力を伴う。
人間計算は「ユーザーとしての人間人口」と「運転力としての人間人口」の両方との密接な関わりを必要とするため、人間計算のさらなる発展にはAIと人間の相互信頼を確立することが重要である。
この調査は、信頼性の高い人間の計算を実現するための基礎となる。
まず,従来のコンピュータシステムにおける信頼性の尺度であるRAS(Reliability, Availability, Serviceability)アナロジーを用いて,人間によるAIに対する信頼度という,人間の計算の信頼性について検討した。
次に、ユーザや参加者に人間の計算システムが提供する社会的信頼性について、公正性、プライバシー、透明性といったAI倫理の観点から論じる。
そこで我々は,人間とAIが相互信頼を築き,相互協力を通じて困難な課題を遂行する,双方向信頼に基づく人間-AI協調を考える。
最後に、信頼性の高い人間の計算を実現するための今後の課題と研究の方向性について論じる。
関連論文リスト
- On the Utility of Accounting for Human Beliefs about AI Intention in Human-AI Collaboration [9.371527955300323]
我々は、人間がどのように解釈し、AIパートナーの意図を判断するかを捉える人間の信念のモデルを開発する。
私たちは、人間と対話するための戦略を考案する際に、人間の行動と人間の信念の両方を取り入れたAIエージェントを作成します。
論文 参考訳(メタデータ) (2024-06-10T06:39:37Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Intuitive and Efficient Human-robot Collaboration via Real-time
Approximate Bayesian Inference [4.310882094628194]
コラボレーションロボットとエンドツーエンドAIは、工場や倉庫における人間のタスクの柔軟な自動化を約束する。
人間とコボットは互いに協力します。
これらのコラボレーションが効果的で安全であるためには、ロボットは人間の意図をモデル化し、予測し、活用する必要がある。
論文 参考訳(メタデータ) (2022-05-17T23:04:44Z) - Best-Response Bayesian Reinforcement Learning with Bayes-adaptive POMDPs
for Centaurs [22.52332536886295]
本稿では,人間とAIの相互作用を逐次ゲームとして新たに定式化する。
このケースでは、有界人間によるより良い意思決定を支援するというAIの問題は、ベイズ対応のPOMDPに還元される。
我々は、機械が自身の限界と人間の助けを借りて改善する方法について議論する。
論文 参考訳(メタデータ) (2022-04-03T21:00:51Z) - The Response Shift Paradigm to Quantify Human Trust in AI
Recommendations [6.652641137999891]
説明可能性、解釈可能性、そしてそれらがAIシステムに対する人間の信頼にどれほど影響するかは、究極的には機械学習と同じくらいの人間の認知の問題である。
我々は,AIレコメンデーションが人的決定に与える影響を定量化する汎用のヒューマン・AIインタラクション・パラダイムを開発し,検証した。
我々の実証・実証パラダイムは、急速に成長するXAI/IAIアプローチをエンドユーザーへの影響の観点から定量的に比較することができる。
論文 参考訳(メタデータ) (2022-02-16T22:02:09Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Artificial Intelligence & Cooperation [38.19500588776648]
人工知能の台頭は、マシンへの意思決定を断念する、ますます増加する意欲をもたらすだろう。
しかし、機械に私たちに影響を与える決定権を与えるのではなく、AIシステムと協調して働く方法が必要だ。
成功すれば、人間とAIの協力は、人間と人間の協力と同じように社会を構築することができる。
論文 参考訳(メタデータ) (2020-12-10T23:54:31Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。