論文の概要: Measuring an artificial intelligence agent's trust in humans using
machine incentives
- arxiv url: http://arxiv.org/abs/2212.13371v1
- Date: Tue, 27 Dec 2022 06:05:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 16:14:52.422570
- Title: Measuring an artificial intelligence agent's trust in humans using
machine incentives
- Title(参考訳): 機械インセンティブを用いた人工知能エージェントの人間に対する信頼度の測定
- Authors: Tim Johnson and Nick Obradovich
- Abstract要約: 人間に対するAIエージェントの信頼を評価することは難しい。
本稿では,AIエージェントのアルゴリズムやゴールオリエンテーションを変更することなく,機械決定をインセンティブ化する手法を提案する。
我々の実験は、これまでで最も先進的なAI言語モデルの一つがインセンティブに反応して社会行動を変えることを示唆している。
- 参考スコア(独自算出の注目度): 2.1016374925364616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientists and philosophers have debated whether humans can trust advanced
artificial intelligence (AI) agents to respect humanity's best interests. Yet
what about the reverse? Will advanced AI agents trust humans? Gauging an AI
agent's trust in humans is challenging because--absent costs for
dishonesty--such agents might respond falsely about their trust in humans. Here
we present a method for incentivizing machine decisions without altering an AI
agent's underlying algorithms or goal orientation. In two separate experiments,
we then employ this method in hundreds of trust games between an AI agent (a
Large Language Model (LLM) from OpenAI) and a human experimenter (author TJ).
In our first experiment, we find that the AI agent decides to trust humans at
higher rates when facing actual incentives than when making hypothetical
decisions. Our second experiment replicates and extends these findings by
automating game play and by homogenizing question wording. We again observe
higher rates of trust when the AI agent faces real incentives. Across both
experiments, the AI agent's trust decisions appear unrelated to the magnitude
of stakes. Furthermore, to address the possibility that the AI agent's trust
decisions reflect a preference for uncertainty, the experiments include two
conditions that present the AI agent with a non-social decision task that
provides the opportunity to choose a certain or uncertain option; in those
conditions, the AI agent consistently chooses the certain option. Our
experiments suggest that one of the most advanced AI language models to date
alters its social behavior in response to incentives and displays behavior
consistent with trust toward a human interlocutor when incentivized.
- Abstract(参考訳): 科学者や哲学者は、人類が人類の利益を尊重するために高度な人工知能(AI)エージェントを信頼できるかどうかについて議論している。
しかし、逆はどうだろう?
高度なAIエージェントは人間を信頼するのか?
aiエージェントの人間に対する信頼度を計測することは、不誠実な人への信頼に対して不当に反応する可能性があるため、困難である。
本稿では,AIエージェントの基盤となるアルゴリズムや目標指向を変更することなく,機械決定をインセンティブ化する手法を提案する。
2つの異なる実験では、AIエージェント(OpenAIのLarge Language Model(LLM))と人間実験者(著者TJ)の間で数百の信頼ゲームにこの手法を用いる。
最初の実験では、AIエージェントは、仮説的な決定をするよりも、実際のインセンティブに直面した時に、人間を高い速度で信頼することにしました。
第2の実験では,ゲームプレイの自動化と質問文の同質化により,これらの結果の再現と拡張を行った。
AIエージェントが真のインセンティブに直面すると、信頼度が上がります。
どちらの実験でも、AIエージェントの信頼決定は、利害関係の大きさとは無関係に見える。
さらに、AIエージェントの信頼決定が不確実性の選択を反映している可能性に対処するため、実験では、AIエージェントに特定の選択肢または不確実性を選択する機会を提供する非社会的決定タスクを与える2つの条件を含む。
我々の実験は、これまでで最も先進的なAI言語モデルの一つがインセンティブに反応して社会行動を変え、インセンティブを与えると人間のインターロケータに対する信頼と整合した行動を表示することを示唆している。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - FlyAI -- The Next Level of Artificial Intelligence is Unpredictable! Injecting Responses of a Living Fly into Decision Making [6.694375709641935]
我々は,リビングフライからの応答を取り入れることで,意思決定の不予測性を向上する新タイプのバイオニックAIを導入する。
私たちのアプローチでは、ハエのさまざまな反応を使って、GobangのゲームでAIエージェントをチューニングします。
論文 参考訳(メタデータ) (2024-09-30T17:19:59Z) - Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Navigates Like Me: Understanding How People Evaluate Human-Like AI in
Video Games [36.96985093527702]
エージェントとベースラインAIエージェントが生成するナビゲーション行動の人間的類似性を比較したクラウドソースによる数百のアセスメントを収集する。
提案するエージェントはチューリングテストに合格するが,ベースラインエージェントは合格しない。
この研究は、ゴール指向のビデオゲームナビゲーションの文脈において、人間が人間的と考える特性に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-03-02T18:59:04Z) - Evidence of behavior consistent with self-interest and altruism in an
artificially intelligent agent [2.1016374925364616]
オープンAIによって開発された大規模言語モデルからなるAIエージェント間の利他的行動をテストするためのインセンティブ付き実験を提案する。
この研究でもっとも高度化されたAIエージェントだけが、非社会的決定タスクにおいて、その報酬を最大化していることがわかった。
また、このAIエージェントは、ディクテーターゲームにおいて最も多彩な利他的行動を示し、ゲーム内の他の人間との共有率に類似している。
論文 参考訳(メタデータ) (2023-01-05T23:30:29Z) - The Response Shift Paradigm to Quantify Human Trust in AI
Recommendations [6.652641137999891]
説明可能性、解釈可能性、そしてそれらがAIシステムに対する人間の信頼にどれほど影響するかは、究極的には機械学習と同じくらいの人間の認知の問題である。
我々は,AIレコメンデーションが人的決定に与える影響を定量化する汎用のヒューマン・AIインタラクション・パラダイムを開発し,検証した。
我々の実証・実証パラダイムは、急速に成長するXAI/IAIアプローチをエンドユーザーへの影響の観点から定量的に比較することができる。
論文 参考訳(メタデータ) (2022-02-16T22:02:09Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。