論文の概要: On the Influence of Artificial Intelligence on Human Problem-Solving: Empirical Insights for the Third Wave in a Multinational Longitudinal Pilot Study
- arxiv url: http://arxiv.org/abs/2511.11738v1
- Date: Thu, 13 Nov 2025 10:20:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.195388
- Title: On the Influence of Artificial Intelligence on Human Problem-Solving: Empirical Insights for the Third Wave in a Multinational Longitudinal Pilot Study
- Title(参考訳): 人工知能が人的問題解決に及ぼす影響について:多国縦断試験における第3波の実証的考察
- Authors: Matthias Huemmer, Theophile Shyiramunda, Franziska Durner, Michelle J. Cummings-Koether,
- Abstract要約: 本稿では,問題解決における人間とAIの連携の進化パラダイムについて考察する。
以上の結果から,ハイブリッド型問題解決文化の確立が示唆された。
この研究は、教育と技術的介入は検証の足場を優先しなければならないと結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article presents the results and their discussion for the third wave (with n=23 participants) within a multinational longitudinal study that investigates the evolving paradigm of human-AI collaboration in problem-solving contexts. Building upon previous waves, our findings reveal the consolidation of a hybrid problem-solving culture characterized by strategic integration of AI tools within structured cognitive workflows. The data demonstrate near-universal AI adoption (95.7% with prior knowledge, 100% ChatGPT usage) primarily deployed through human-led sequences such as "Think, Internet, ChatGPT, Further Processing" (39.1%). However, this collaboration reveals a critical verification deficit that escalates with problem complexity. We empirically identify and quantify two systematic epistemic gaps: a belief-performance gap (up to +80.8 percentage points discrepancy between perceived and actual correctness) and a proof-belief gap (up to -16.8 percentage points between confidence and verification capability). These findings, derived from behavioral data and problem vignettes across complexity levels, indicate that the fundamental constraint on reliable AI-assisted work is solution validation rather than generation. The study concludes that educational and technological interventions must prioritize verification scaffolds (including assumption documentation protocols, adequacy criteria checklists, and triangulation procedures) to fortify the human role as critical validator in this new cognitive ecosystem.
- Abstract(参考訳): 本稿は、問題解決における人間とAIの連携の進化パラダイムを探求する多国間縦断的研究において、第3波(n=23人)に対する結果とその議論について述べる。
この結果から,構造化認知ワークフローにおけるAIツールの戦略的統合を特徴とする,ハイブリッドな問題解決文化の統合が明らかになった。
このデータは、主に“Think, Internet, ChatGPT, further Processing”(39.1%)のような人間主導のシーケンスを通じて展開される、ほぼユニバーサルなAI採用(以前の知識で95.7%、ChatGPT使用率100%)を示している。
しかし、この共同作業は、問題の複雑さをエスカレートする重要な検証不足を明らかにしている。
我々は,信念・パフォーマンスギャップ(知覚と実際の正しさの相違点+80.8ポイント)と証明・信頼性ギャップ(信頼と検証能力の相違点最大-16.8ポイント)の2つの系統的疫学的ギャップを実証的に同定し,定量化する。
これらの知見は、複雑なレベルにわたる行動データと問題ウィグレットから導かれるもので、信頼できるAI支援作業の基本的な制約は、生成ではなくソリューション検証であることを示している。
この研究は、新しい認知生態系において、人間の役割を重要なバリデーションとして強化するために、教育と技術的介入が検証足場(仮定文書プロトコル、妥当性基準チェックリスト、三角測量手順を含む)を優先順位付けする必要があると結論付けている。
関連論文リスト
- Embracing Trustworthy Brain-Agent Collaboration as Paradigm Extension for Intelligent Assistive Technologies [51.93721053301417]
本稿では,脳-コンピュータ・インタフェースから脳-エージェント・コラボレーションへのパラダイム拡張を視野に入れている。
我々は、受動的脳信号データプロセッサではなく、知的支援のためのアクティブで協調的なパートナーとして、リフレーミングエージェントを強調している。
論文 参考訳(メタデータ) (2025-10-25T00:25:45Z) - QUINTA: Reflexive Sensibility For Responsible AI Research and Data-Driven Processes [2.504366738288215]
本稿では, 重要な反射性に基礎を置いた包括的枠組みについて述べる。
このフレームワークは研究者の反射性を中心とし、データ中心のアプローチを通じてAI/DSアーティファクトを作成し分析するAI研究者の力に注意を向ける。
論文 参考訳(メタデータ) (2025-09-19T18:40:30Z) - Interaction as Intelligence: Deep Research With Human-AI Partnership [25.28272178646003]
インタラクション・アズ・インテリジェンス」研究シリーズは、深層研究課題における人間とAIの関係の再認識を提示する。
Deep Cognitionは、人間の役割を認知的監視への指示から転換するシステムである。
論文 参考訳(メタデータ) (2025-07-21T16:15:18Z) - Opting Out of Generative AI: a Behavioral Experiment on the Role of Education in Perplexity AI Avoidance [0.0]
本研究は,形式教育の違いがCAIの回避に結びついているかどうかを考察する。
発見は、AI導入における教育の中心的役割と、AI関連の研究における自己選択バイアスの役割を浮き彫りにする。
論文 参考訳(メタデータ) (2025-07-10T16:05:11Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Data Fusion for Partial Identification of Causal Effects [62.56890808004615]
本稿では,研究者が重要な疑問に答えられるような,新しい部分的識別フレームワークを提案する。
因果効果は肯定的か否定的か?
本研究の枠組みをSTARプロジェクトに適用し,第3級の標準試験性能に対する教室規模の影響について検討する。
論文 参考訳(メタデータ) (2025-05-30T07:13:01Z) - Identifying Trustworthiness Challenges in Deep Learning Models for Continental-Scale Water Quality Prediction [69.38041171537573]
水質は環境の持続可能性、生態系の回復力、公衆衛生に基礎を置いている。
ディープラーニングは、大規模な水質予測と科学的洞察生成のための変革的なポテンシャルを提供する。
汚染緩和や資源配分等、高額な運用上の意思決定に広く採用されていることは、未解決の信頼性の課題によって防止されている。
論文 参考訳(メタデータ) (2025-03-13T01:50:50Z) - Algorithmic Identification of Essential Exogenous Nodes for Causal Sufficiency in Brain Networks [1.9874264019909988]
脳の因果関係などの因果関係の解明において、因果関係の仮定は重要な役割を担っている。
そこで本稿では, 因果関係に係わる必要を満足する本質的ノードを決定するためのアルゴリズム的同定手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T16:05:47Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。