論文の概要: Person-AI Bidirectional Fit - A Proof-Of-Concept Case Study Of Augmented Human-Ai Symbiosis In Management Decision-Making Process
- arxiv url: http://arxiv.org/abs/2511.13670v1
- Date: Mon, 17 Nov 2025 18:22:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.670722
- Title: Person-AI Bidirectional Fit - A Proof-Of-Concept Case Study Of Augmented Human-Ai Symbiosis In Management Decision-Making Process
- Title(参考訳): Person-AI bidirectional Fit - 経営決定過程におけるAugmented Human-Ai Symbiosisのケーススタディ
- Authors: Agnieszka Bieńkowska, Jacek Małecki, Alexander Mathiesen-Ohman, Katarzyna Tworek,
- Abstract要約: 本稿では,人間の意思決定者と人工知能システムの間にある,継続的に進化し,文脈に敏感なアライメントを主認識するペルソナAIの双方向適合の概念を発展させる。
本研究は,シニアAIリーダの実際の採用プロセスを含む概念実証ケーススタディを通じて,経営決定におけるP-AIの役割について検討した。
- 参考スコア(独自算出の注目度): 39.146761527401424
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This article develops the concept of Person-AI bidirectional fit, defined as the continuously evolving, context-sensitive alignment-primarily cognitive, but also emotional and behavioral-between a human decision-maker and an artificial intelligence system. Grounded in contingency theory and quality theory, the study examines the role of P-AI fit in managerial decision-making through a proof-of-concept case study involving a real hiring process for a Senior AI Lead. Three decision pathways are compared: (1) independent evaluations by a CEO, CTO, and CSO; (2) an evaluation produced by an augmented human-AI symbiotic intelligence system (H3LIX-LAIZA); and (3) an assessment generated by a general-purpose large language model. The results reveal substantial role-based divergence in human judgments, high alignment between H3LIX-LAIZA and the CEOs implicit decision model-including ethical disqualification of a high-risk candidate and a critical false-positive recommendation from the LLMr. The findings demonstrate that higher P-AI fit, exemplified by the CEO H3LIX-LAIZA relationship, functions as a mechanism linking augmented symbiotic intelligence to accurate, trustworthy, and context-sensitive decisions. The study provides an initial verification of the P-AI fit construct and a proof-of-concept for H3LIX-LAIZA as an augmented human-AI symbiotic intelligence system.
- Abstract(参考訳): 本稿では,人間の意思決定者と人工知能システムの間にある,継続的に進化し,文脈に敏感なアライメントを主認識するペルソナAIの双方向適合の概念を発展させる。
コンテンジェンシー理論と品質理論を基礎として,シニアAIリーダの真の採用プロセスを含む概念実証ケーススタディを通じて,経営決定におけるP-AIの役割を検証した。
1)CEO,CTO,CSOによる独立評価,(2)強化ヒト-AI共生知能システム(H3LIX-LAIZA)による評価,(3)汎用大規模言語モデルによる評価,の3つの決定経路を比較した。
その結果,H3LIX-LAIZAとH3LIX-LAIZAとCEOの暗黙的決定モデルとの間には,リスクの高い候補の倫理的不平等やLLMrからの批判的偽陽性の勧告を含む,有意な役割に基づく相違が示された。
この結果は,CEOのH3LIX-LAIZA関係が示すように,P-AIの適合度が高いことが示唆された。
本研究は,ヒト-AI共生情報システムとしてのP-AI適合構造の初期検証とH3LIX-LAIZAの概念実証を提供する。
関連論文リスト
- Academics and Generative AI: Empirical and Epistemic Indicators of Policy-Practice Voids [0.0]
本研究は,組織ルールと実践的AI利用の間の空白を明らかにするために,構造化解釈フレームワークに埋め込まれた10項目の間接楕円型機器のプロトタイプを作成する。
論文 参考訳(メタデータ) (2025-11-04T06:24:47Z) - Cascaded Language Models for Cost-effective Human-AI Decision-Making [52.81324217423194]
複数の専門分野にまたがってタスクを適応的に委譲するLLM決定フレームワークを提案する。
まず、deferral Policyは、ベースモデルの回答を受け入れるか、あるいは大きなモデルでそれを再生するかを決定する。
第2に、禁忌ポリシーは、カスケードモデル応答が十分に確実であるか、または人間の介入を必要とするかを判定する。
論文 参考訳(メタデータ) (2025-06-13T15:36:22Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Developmental Support Approach to AI's Autonomous Growth: Toward the Realization of a Mutually Beneficial Stage Through Experiential Learning [0.0]
本研究では,AI自体の倫理的発展を支援する「AI開発支援」アプローチを提案する。
我々は,経験,内観,分析,仮説形成のサイクルに基づく学習フレームワークを構築した。
論文 参考訳(メタデータ) (2025-02-27T06:12:20Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Explainable and Human-Grounded AI for Decision Support Systems: The Theory of Epistemic Quasi-Partnerships [0.0]
我々は、倫理的で説明可能なAI(XAI)の要求を満たすことは、人間の意思決定者に3種類の人為的説明を提供するAI-DSSを開発することであると論じている。
優れた人為的理由を構成するものに関する現在の理論が、この証拠を適切に説明していないか、あるいは開発に健全な倫理的アドバイスを提供していないかを実証する。
論文 参考訳(メタデータ) (2024-09-23T09:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。