論文の概要: Vibe Researching as Wolf Coming: Can AI Agents with Skills Replace or Augment Social Scientists?
- arxiv url: http://arxiv.org/abs/2602.22401v1
- Date: Wed, 25 Feb 2026 20:52:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.402021
- Title: Vibe Researching as Wolf Coming: Can AI Agents with Skills Replace or Augment Social Scientists?
- Title(参考訳): ウルフとしての研究 - スキルを持ったAIエージェントは社会科学者に取って代わるか、増員できるか?
- Authors: Yongjun Zhang,
- Abstract要約: 本稿では,バイブ符号化に類似したAI時代の「バイブ研究」の概念を紹介する。
コーディフィビリティと暗黙の知識要求という2つの側面に沿って研究活動を分類する認知タスクフレームワークを開発する。
AIエージェントは、スピード、カバレッジ、方法論的な足場において優れているが、理論的な独創性と暗黙のフィールド知識に苦慮している、と私は主張する。
- 参考スコア(独自算出の注目度): 4.181639770490221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents -- systems that execute multi-step reasoning workflows with persistent state, tool access, and specialist skills -- represent a qualitative shift from prior automation technologies in social science. Unlike chatbots that respond to isolated queries, AI agents can now read files, run code, query databases, search the web, and invoke domain-specific skills to execute entire research pipelines autonomously. This paper introduces the concept of vibe researching -- the AI-era parallel to ``vibe coding'' (Karpathy, 2025) -- and uses scholar-skill, a 21-skill plugin for Claude Code covering the full research pipeline from idea to submission, as an illustrative case. I develop a cognitive task framework that classifies research activities along two dimensions -- codifiability and tacit knowledge requirement -- to identify a delegation boundary that is cognitive, not sequential: it cuts through every stage of the research pipeline, not between stages. I argue that AI agents excel at speed, coverage, and methodological scaffolding but struggle with theoretical originality and tacit field knowledge. The paper concludes with an analysis of three implications for the profession -- augmentation with fragile conditions, stratification risk, and a pedagogical crisis -- and proposes five principles for responsible vibe researching.
- Abstract(参考訳): AIエージェント — 永続的な状態、ツールアクセス、専門スキルを備えた多段階推論ワークフローを実行するシステム — は、社会科学における従来の自動化技術から、質的なシフトを表している。
独立したクエリに応答するチャットボットとは異なり、AIエージェントはファイルを読み、コードを実行し、データベースをクエリし、Webを検索し、ドメイン固有のスキルを実行し、研究パイプライン全体を自律的に実行する。
本稿では,'vibe coding'' (Karpathy, 2025) に類似したAI研究の概念を紹介する。
私は、認知的ではなく認知的境界を識別するために、コディフィビリティと暗黙の知識要求という2つの次元に沿って研究活動を分類する認知タスクフレームワークを開発します。
AIエージェントは、スピード、カバレッジ、方法論的な足場において優れているが、理論的な独創性と暗黙のフィールド知識に苦慮している、と私は主張する。
本稿は、脆弱な条件による強化、階層化リスク、教育的危機という3つの専門職の意味を分析し、責任あるバイブ研究のための5つの原則を提案する。
関連論文リスト
- SoK: Agentic Skills -- Beyond Tool Use in LLM Agents [6.356997609995175]
エージェントシステムは、より確実にロングホライゾンを実行するために、再利用可能な手続き能力、すなわちエージェントスキルに依存している。
本論文は,全ライフサイクルのスキルレイヤ(発見,実践,蒸留,貯蔵,構成,評価,更新)をマッピングする。
我々は、スキルベースのエージェントのセキュリティとガバナンスの影響を分析し、サプライチェーンのリスク、スキルペイロードによるインジェクションの促進、信頼度の高い実行をカバーします。
論文 参考訳(メタデータ) (2026-02-24T13:11:38Z) - AIRS-Bench: a Suite of Tasks for Frontier AI Research Science Agents [49.67355440164857]
AIRS-Benchは、最先端の機械学習論文から得られた20のタスクからなるスイートである。
Airs-Benchタスクは、研究ライフサイクル全体のエージェント能力を評価する。
本稿では,AIRS-Benchタスク定義と評価コードをオープンソースとして公開し,自律科学研究のさらなる発展を促す。
論文 参考訳(メタデータ) (2026-02-06T16:45:02Z) - AI Sprints: Towards a Critical Method for Human-AI Collaboration [0.0]
本稿では, 私が「AIスプリント」と呼ぶものを通して,新たな人文主義的探究の可能性を紹介する。
反復的開発におけるループが、生成AIがもたらす大きな変革を認識しながら、データやスプリント方法論をいかに厳格に適用できるかを実演します。
本論文は,AI強化研究のための実践的方法論と,このハイブリッド手法の変換を理解するための理論的枠組みの両立に寄与する。
論文 参考訳(メタデータ) (2025-12-13T15:56:11Z) - What Work is AI Actually Doing? Uncovering the Drivers of Generative AI Adoption [1.4977849232424492]
本研究は,本質的なタスク特性が,AIシステムに業務を委譲するユーザの判断を促すかを検討する。
本研究は,実世界の生成AI利用を,本質的なタスク特性の包括的多次元フレームワークに結びつける最初の体系的証拠を提供する。
論文 参考訳(メタデータ) (2025-10-26T19:13:37Z) - Executable Knowledge Graphs for Replicating AI Research [65.41207324831583]
Executable Knowledge Graphs (xKG) は、科学文献から抽出された技術的洞察、コードスニペット、ドメイン固有の知識を自動的に統合するモジュラーでプラグイン可能な知識基盤である。
コードはhttps://github.com/zjunlp/xKGでリリースされる。
論文 参考訳(メタデータ) (2025-10-20T17:53:23Z) - A Desideratum for Conversational Agents: Capabilities, Challenges, and Future Directions [51.96890647837277]
大規模言語モデル(LLM)は、従来の対話システムから、自律的な行動、文脈認識、ユーザとのマルチターンインタラクションが可能な高度なエージェントへと、会話AIを推進してきた。
本調査では,人間レベルの知性にアプローチするよりスケーラブルなシステムにおいて,何が達成されたのか,どのような課題が持続するのか,何を行う必要があるのか,といった,次世代の会話エージェントのデシラトゥムを提示する。
論文 参考訳(メタデータ) (2025-04-07T21:01:25Z) - Can We Trust AI Agents? A Case Study of an LLM-Based Multi-Agent System for Ethical AI [10.084913433923566]
AIベースのシステムは、多様なタスクをサポートすることによって数百万に影響を及ぼすが、誤情報、偏見、誤用といった問題に直面している。
本研究では,Large Language Models (LLM) を用いたAI倫理の実践について検討する。
エージェントがAIインシデントデータベースから現実のAI倫理問題に関する構造化された議論を行うプロトタイプを設計する。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Aligning Cyber Space with Physical World: A Comprehensive Survey on Embodied AI [116.8199519880327]
人工知能(Embodied AI)は、人工知能(AGI)の実現に不可欠である
本調査では,Embodied AIの最近の進歩を包括的に調査する。
論文 参考訳(メタデータ) (2024-07-09T14:14:47Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。