論文の概要: From Consumption to Collaboration: Measuring Interaction Patterns to Augment Human Cognition in Open-Ended Tasks
- arxiv url: http://arxiv.org/abs/2504.02780v1
- Date: Thu, 03 Apr 2025 17:20:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:31.831006
- Title: From Consumption to Collaboration: Measuring Interaction Patterns to Augment Human Cognition in Open-Ended Tasks
- Title(参考訳): 消費からコラボレーションへ:オープンエンドタスクにおけるインタラクションパターンの測定と人間の認知向上
- Authors: Joshua Holstein, Moritz Diener, Philipp Spitzer,
- Abstract要約: ジェネレーティブAIの台頭、特に大規模言語モデル(LLM)は、知識労働における認知過程を根本的に変えるものである。
本稿では、認知活動モード(探索対搾取)と認知エンゲージメントモード(建設対有害)の2つの側面に沿って相互作用パターンを分析する枠組みを提案する。
- 参考スコア(独自算出の注目度): 2.048226951354646
- License:
- Abstract: The rise of Generative AI, and Large Language Models (LLMs) in particular, is fundamentally changing cognitive processes in knowledge work, raising critical questions about their impact on human reasoning and problem-solving capabilities. As these AI systems become increasingly integrated into workflows, they offer unprecedented opportunities for augmenting human thinking while simultaneously risking cognitive erosion through passive consumption of generated answers. This tension is particularly pronounced in open-ended tasks, where effective solutions require deep contextualization and integration of domain knowledge. Unlike structured tasks with established metrics, measuring the quality of human-LLM interaction in such open-ended tasks poses significant challenges due to the absence of ground truth and the iterative nature of solution development. To address this, we present a framework that analyzes interaction patterns along two dimensions: cognitive activity mode (exploration vs. exploitation) and cognitive engagement mode (constructive vs. detrimental). This framework provides systematic measurements to evaluate when LLMs are effective tools for thought rather than substitutes for human cognition, advancing theoretical understanding and practical guidance for developing AI systems that protect and augment human cognitive capabilities.
- Abstract(参考訳): 特にジェネレーティブAIの台頭と大規模言語モデル(LLM)は、知識労働における認知過程を根本的に変え、人間の推論と問題解決能力への影響について批判的な疑問を提起している。
これらのAIシステムはワークフローにますます統合されるにつれて、人間の思考を増強する前例のない機会を提供すると同時に、生成された回答を受動的に消費することで認知的侵食を危険にさらす。
この緊張は特に、効果的なソリューションは深いコンテキスト化とドメイン知識の統合を必要とするオープンエンドタスクにおいて顕著である。
確立されたメトリクスを持つ構造化タスクとは異なり、そのようなオープンエンドタスクにおける人間とLLMの相互作用の質を測定することは、基底的真理の欠如とソリューション開発の反復的な性質によって大きな課題となる。
これを解決するために、認知活動モード(探索対搾取)と認知エンゲージメントモード(建設対有害)の2つの側面に沿って相互作用パターンを分析する枠組みを提案する。
このフレームワークは、LLMが人間の認知の代用ではなく、思考のための効果的なツールであるかどうかを評価するための体系的な測定方法を提供し、理論的理解を進め、人間の認知能力を保護し強化するAIシステムを開発するための実践的なガイダンスを提供する。
関連論文リスト
- Cognitive AI framework: advances in the simulation of human thought [0.0]
Human Cognitive Simulation Frameworkは、人間の認知能力を人工知能システムに統合する大きな進歩を表している。
短期記憶(会話コンテキスト)、長期記憶(対話コンテキスト)、高度な認知処理、効率的な知識管理を融合することにより、コンテキストコヒーレンスと永続的なデータストレージを確保する。
このフレームワークは、継続的学習アルゴリズム、持続可能性、マルチモーダル適応性に関する将来の研究の基礎を築き、Cognitive AIを新興分野におけるトランスフォーメーションモデルとして位置づけている。
論文 参考訳(メタデータ) (2025-02-06T17:43:35Z) - Metacognition for Unknown Situations and Environments (MUSE) [3.2020845462590697]
未知の状況と環境(MUSE)フレームワークのメタ認知を提案する。
MUSEはメタ認知プロセス、特に自己認識と自己制御を自律エージェントに統合する。
エージェントは自己認識と自己制御の大幅な改善を示す。
論文 参考訳(メタデータ) (2024-11-20T18:41:03Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - OlaGPT: Empowering LLMs With Human-like Problem-Solving Abilities [19.83434949066066]
本稿では,OlaGPTと呼ばれる新しいインテリジェントなフレームワークを紹介する。
OlaGPTは認知アーキテクチャの枠組みを慎重に研究し、人間の認知の特定の側面をシミュレートすることを提案する。
このフレームワークは、注意、記憶、推論、学習、および対応するスケジューリングと意思決定メカニズムを含む、異なる認知モジュールの近似を含む。
論文 参考訳(メタデータ) (2023-05-23T09:36:51Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Causal Deep Learning [77.49632479298745]
因果性は、現実世界の問題を解決する方法を変える可能性がある。
しかし因果関係は、実際にテストできない重要な仮定を必要とすることが多い。
我々は、因果性に関する新しい考え方を提案します。
論文 参考訳(メタデータ) (2023-03-03T19:19:18Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。