論文の概要: Human Misperception of Generative-AI Alignment: A Laboratory Experiment
- arxiv url: http://arxiv.org/abs/2502.14708v1
- Date: Thu, 20 Feb 2025 16:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:26:58.264139
- Title: Human Misperception of Generative-AI Alignment: A Laboratory Experiment
- Title(参考訳): 生成AIアライメントのヒューマン・ミスパーセプション:実験室実験
- Authors: Kevin He, Ran Shorrer, Mengjia Xia,
- Abstract要約: 我々は、経済的な意思決定の文脈において、生成的人工知能(GenAI)のアライメントに対する人々の認識を研究する。
我々は,GenAIの選択と人間の選択の一致度を過大評価している。
- 参考スコア(独自算出の注目度): 0.393259574660092
- License:
- Abstract: We conduct an incentivized laboratory experiment to study people's perception of generative artificial intelligence (GenAI) alignment in the context of economic decision-making. Using a panel of economic problems spanning the domains of risk, time preference, social preference, and strategic interactions, we ask human subjects to make choices for themselves and to predict the choices made by GenAI on behalf of a human user. We find that people overestimate the degree of alignment between GenAI's choices and human choices. In every problem, human subjects' average prediction about GenAI's choice is substantially closer to the average human-subject choice than it is to the GenAI choice. At the individual level, different subjects' predictions about GenAI's choice in a given problem are highly correlated with their own choices in the same problem. We explore the implications of people overestimating GenAI alignment in a simple theoretical model.
- Abstract(参考訳): 我々は、経済的な意思決定の文脈において、生産的人工知能(GenAI)アライメントに対する人々の認識を研究するために、インセンティブ付き実験を行う。
リスク,時間的嗜好,社会的嗜好,戦略的相互作用の領域にまたがる経済問題のパネルを用いて,人間に選択を依頼し,人に代わってGenAIが行う選択を予測させる。
我々は,GenAIの選択と人間の選択の一致度を過大評価している。
あらゆる問題において、GenAIの選択に関する人の平均的な予測は、GenAIの選択よりも平均的な人-対象の選択にかなり近い。
個人レベルでは、与えられた問題におけるGenAIの選択に関する異なる被験者の予測は、同じ問題における自身の選択と非常に相関している。
簡単な理論モデルを用いて,GenAIアライメントを過大評価する人々の意義を考察する。
関連論文リスト
- Selective Response Strategies for GenAI [6.261444979025644]
Generative AI(GenAI)の台頭は、Stack Overflowのような人間ベースのフォーラムに大きな影響を与えている。
これにより負のフィードバックループが発生し、GenAIシステムの開発を妨げる。
選択応答がデータ生成プロセスに複合的影響を与える可能性があることを示す。
論文 参考訳(メタデータ) (2025-02-02T09:27:02Z) - A theory of appropriateness with applications to generative artificial intelligence [56.23261221948216]
我々は、AIによる意思決定を適切に評価し、改善するために、人間の意思決定がいかに適切かを理解する必要がある。
本稿では,人間の社会でどのように機能するか,脳でどのように実装されるのか,生成AI技術の展開に責任があるのか,という,適切性の理論について述べる。
論文 参考訳(メタデータ) (2024-12-26T00:54:03Z) - "So what if I used GenAI?" -- Implications of Using Cloud-based GenAI in Software Engineering Research [0.0]
本論文は、GenAIが用いられている様々な研究の側面に光を当て、その法的な意味を初心者や芽生えの研究者に認識させるものである。
我々は、GenAIを使用するすべてのソフトウェア研究者が、責任の主張を暴露する重大なミスを避けるために意識すべきであるという現在の知識について、重要な側面を要約する。
論文 参考訳(メタデータ) (2024-12-10T06:18:15Z) - Early Adoption of Generative Artificial Intelligence in Computing Education: Emergent Student Use Cases and Perspectives in 2023 [38.83649319653387]
コンピュータ学生のGenAI利用と認識に関する先行研究は限られている。
私たちは、小さなエンジニアリングに焦点を当てたR1大学で、すべてのコンピュータサイエンス専攻を調査しました。
我々は,GenAIと教育に関する新たな議論に対する知見の影響について論じる。
論文 参考訳(メタデータ) (2024-11-17T20:17:47Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - Measuring Human Contribution in AI-Assisted Content Generation [66.06040950325969]
本研究は,AIによるコンテンツ生成における人間の貢献度を測定する研究課題を提起する。
人間の入力とAI支援出力の自己情報に対する相互情報を計算することにより、コンテンツ生成における人間の比例情報貢献を定量化する。
論文 参考訳(メタデータ) (2024-08-27T05:56:04Z) - Model-based Maintenance and Evolution with GenAI: A Look into the Future [47.93555901495955]
我々は、モデルベースエンジニアリング(MBM&E)の限界に対処する手段として、生成人工知能(GenAI)を用いることができると論じる。
我々は、エンジニアの学習曲線の削減、レコメンデーションによる効率の最大化、ドメイン問題を理解するための推論ツールとしてのGenAIの使用を提案する。
論文 参考訳(メタデータ) (2024-07-09T23:13:26Z) - Teacher agency in the age of generative AI: towards a framework of hybrid intelligence for learning design [0.0]
ジェネレーティブAI(genAI)は、異なる目的のために教育で使用されている。
教員の視点からは、ジェネシスはデザインの学習などの活動を支援することができる。
しかし、GenAIは教師の力不足により、専門職に悪影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2024-07-09T08:28:05Z) - Innovating Computer Programming Pedagogy: The AI-Lab Framework for
Generative AI Adoption [0.0]
我々は、中核的なプログラミングコースでGenAIを効果的に活用するために、学生を指導するフレームワーク「AI-Lab」を紹介した。
GenAIの誤りを特定し、修正することで、学生は学習プロセスを充実させる。
教育者にとって、AI-Labは、学習経験におけるGenAIの役割に対する学生の認識を探索するメカニズムを提供する。
論文 参考訳(メタデータ) (2023-08-23T17:20:37Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。