論文の概要: A Design Science Blueprint for an Orchestrated AI Assistant in Doctoral Supervision
- arxiv url: http://arxiv.org/abs/2510.19227v1
- Date: Wed, 22 Oct 2025 04:20:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.118235
- Title: A Design Science Blueprint for an Orchestrated AI Assistant in Doctoral Supervision
- Title(参考訳): ドクター・スーパービジョンにおけるAIアシスタントのための設計科学の青写真
- Authors: Teo Susnjak, Timothy R. McIntosh, Tong Liu, Paul Watters,
- Abstract要約: 本研究は,社会技術仲介者として機能するAIアシスタントと共同パイロットのための設計科学の青写真である。
このようなシステムのリスクには、AI過信や学習の錯覚の可能性などが含まれる。
このコントリビューションは、組織が規律を越えて実施し、試行できるワークフローとガバナンスルールを備えた、先進的で文学的なデザインである。
- 参考スコア(独自算出の注目度): 7.136113739927491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a design science blueprint for an orchestrated AI assistant and co-pilot in doctoral supervision that acts as a socio-technical mediator. Design requirements are derived from Stakeholder Theory and bounded by Academic Integrity. We consolidated recent evidence on supervision gaps and student wellbeing, then mapped issues to adjacent large language model capabilities using a transparent severity-mitigability triage. The artefact assembles existing capabilities into one accountable agentic AI workflow that proposes retrieval-augmented generation and temporal knowledge graphs, as well as mixture-of-experts routing as a solution stack of technologies to address existing doctoral supervision pain points. Additionally, a student context store is proposed, which introduces behaviour patches that turn tacit guidance into auditable practice and student-set thresholds that trigger progress summaries, while keeping authorship and final judgement with people. We specify a student-initiated moderation loop in which assistant outputs are routed to a supervisor for review and patching, and we analyse a reconfigured stakeholder ecosystem that makes information explicit and accountable. Risks in such a system exist, and among others, include AI over-reliance and the potential for the illusion of learning, while guardrails are proposed. The contribution is an ex ante, literature-grounded design with workflow and governance rules that institutions can implement and trial across disciplines.
- Abstract(参考訳): 本研究は,社会技術仲介者として機能するAIアシスタントと共同パイロットのための設計科学の青写真である。
設計要件は、Stakeholder Theoryから派生し、アカデミック・インテリジェンスによって拘束される。
教師のギャップと学生の幸福感に関する最近の証拠を整理し, 透明な重度緩和性トリアージを用いて, 隣接する大規模言語モデル能力に問題をマッピングした。
このアーティファクトは、既存の機能をひとつの説明可能なエージェントAIワークフローに集約し、検索強化された生成と時間的知識グラフを提案し、既存の医師監督の問題点に対処するテクノロジのソリューションスタックとして、エキスパートの混合ルーティングを提案する。
また,学生コンテキストストアが提案され,学習指導を監査可能な実践に転換する行動パッチや,進行要約を誘発する学生設定しきい値を導入し,著者や最終判断を人々とともに維持する。
我々は,学生主導のモデレーション・ループを規定し,アシスタントの出力を管理者にルーティングしてレビューとパッチを行い,情報を明確にし,説明責任を負わせるように構成された利害関係者のエコシステムを分析した。
このようなシステムのリスクには、AI過信や学習錯覚の可能性などがあり、ガードレールが提案されている。
このコントリビューションは、組織が規律を越えて実施し、試行できるワークフローとガバナンスルールを備えた、先進的で文学的なデザインである。
関連論文リスト
- Beyond Automation: Socratic AI, Epistemic Agency, and the Implications of the Emergence of Orchestrated Multi-Agent Learning Architectures [0.0]
ジェネレーティブAIはもはや高等教育における周辺ツールではない。
本稿では,ソクラティックAIテュータの評価実験から得られた知見について述べる。
テューターを使用する学生は、批判的、独立的、反省的な思考に対する大きな支持を報告した。
論文 参考訳(メタデータ) (2025-08-07T07:49:03Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Reflexive Prompt Engineering: A Framework for Responsible Prompt Engineering and Interaction Design [0.0]
この記事では、戦略的に迅速なエンジニアリングが倫理的および法的考察を直接AIインタラクションに組み込む方法について検討する。
5つの相互接続されたコンポーネントを含む、責任あるプロンプトエンジニアリングのためのフレームワークを提案する。
この分析によると、効果的なプロンプトエンジニアリングは、技術的精度と倫理的意識の微妙なバランスを必要とする。
論文 参考訳(メタデータ) (2025-04-22T18:51:32Z) - Training Turn-by-Turn Verifiers for Dialogue Tutoring Agents: The Curious Case of LLMs as Your Coding Tutors [29.04639728020965]
本稿では,学習者の知識状況とターン・バイ・ターン・バイ・ターン・バリデーションを推定し,タスク完了に向けた効果的な指導を確実にする,新しいエージェントワークフローであるTrace-and-Verify(TRAVER)を提案する。
我々のアプローチはコーディングを超えて拡張することができ、人間のタスク学習のための学習エージェントの進化に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-18T22:13:00Z) - Challenges for Responsible AI Design and Workflow Integration in Healthcare: A Case Study of Automatic Feeding Tube Qualification in Radiology [35.284458448940796]
ナトリウムガスチューブ(NGT)は、鼻から胃に挿入されたチューブを供給し、栄養や薬品を供給している。
近年のAI開発は、チェストX線画像からNGT配置を堅牢に検出する可能性を示している。
本稿では,この問題に対する人間中心のアプローチを提案するとともに,コンテキスト調査および15の臨床ステークホルダとの詳細なインタビューの結果から得られた知見について述べる。
論文 参考訳(メタデータ) (2024-05-08T14:16:22Z) - Ask-AC: An Initiative Advisor-in-the-Loop Actor-Critic Framework [41.04606578479283]
本稿では,Ask-ACと呼ばれる新しいアドバイザリ・イン・ザ・ループアクター・クリティカル・フレームワークを提案する。
Ask-ACの中心には2つの補完的なコンポーネント、すなわちアクションリクエスタとアダプティブステートセレクタがある。
定常環境および非定常環境における実験結果から,提案手法はエージェントの学習効率を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2022-07-05T10:58:11Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。