論文の概要: A Survey on Human-AI Teaming with Large Pre-Trained Models
- arxiv url: http://arxiv.org/abs/2403.04931v2
- Date: Wed, 26 Jun 2024 23:44:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-06-28 19:26:56.969101
- Title: A Survey on Human-AI Teaming with Large Pre-Trained Models
- Title(参考訳): 大規模事前学習モデルによるAI連携に関する調査研究
- Authors: Vanshika Vats, Marzia Binta Nizam, Minghao Liu, Ziyuan Wang, Richard Ho, Mohnish Sai Prasad, Vincent Titterton, Sai Venkat Malreddy, Riya Aggarwal, Yanwen Xu, Lei Ding, Jay Mehta, Nathan Grinnell, Li Liu, Sijia Zhong, Devanathan Nallur Gandamani, Xinyi Tang, Rohan Ghosalkar, Celeste Shen, Rachel Shen, Nafisa Hussain, Kesav Ravichandran, James Davis,
- Abstract要約: HAIチーム(Human-AI Teaming)は、問題解決と意思決定のプロセスを進めるための基盤として登場した。
大規模事前訓練モデル(LPtM)の出現は、この景観を大きく変えた。
複雑なパターンを理解し予測するために大量のデータを活用することで、前例のない機能を提供します。
- 参考スコア(独自算出の注目度): 7.280953657497549
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the rapidly evolving landscape of artificial intelligence (AI), the collaboration between human intelligence and AI systems, known as Human-AI (HAI) Teaming, has emerged as a cornerstone for advancing problem-solving and decision-making processes. The advent of Large Pre-trained Models (LPtM) has significantly transformed this landscape, offering unprecedented capabilities by leveraging vast amounts of data to understand and predict complex patterns. This paper surveys the pivotal integration of LPtMs with HAI, emphasizing how these models enhance collaborative intelligence beyond traditional approaches. It examines the potential of LPtMs in augmenting human capabilities, discussing this collaboration for AI model improvements, effective teaming, ethical considerations, and their broad applied implications in various sectors. Through this exploration, the study sheds light on the transformative impact of LPtM-enhanced HAI Teaming, providing insights for future research, policy development, and strategic implementations aimed at harnessing the full potential of this collaboration for research and societal benefit.
- Abstract(参考訳): 人工知能(AI)の急速な発展の中で、ヒューマンAI(Human-AI:Human-AI)チームと呼ばれる人工知能とAIシステムのコラボレーションは、問題解決と意思決定プロセスの前進の基盤として現れてきた。
大規模事前学習モデル(LPtM)の出現は、複雑なパターンを理解し予測するために大量のデータを活用することで、前例のない機能を提供し、この状況を大きく変えた。
本稿では,LPtMsとHAIの統合を重要視し,これらのモデルが従来のアプローチを超えて協調的インテリジェンスをどのように強化するかを強調した。
LPtMが人間の能力を増強する可能性について検討し、AIモデルの改善、効果的なチームづくり、倫理的考察、そして様々な分野で広く適用されている影響について論じる。
この調査を通じて、この研究はLPtMが強化したHAIチーム(HAI Teaming)の変革的影響に光を当て、今後の研究、政策開発、そしてこのコラボレーションの潜在能力を研究と社会的利益に活用することを目的とした戦略的実装に対する洞察を提供する。
関連論文リスト
- Human-AI Use Patterns for Decision-Making in Disaster Scenarios: A Systematic Review [0.0]
我々は,人間とAIの意思決定支援システム,タスクとリソースの調整,信頼と透明性,シミュレーションとトレーニングの4つのカテゴリを識別する。
これらの内部では、認知強化インテリジェンス、マルチエージェントコーディネーション、説明可能なAI、仮想トレーニング環境などのサブパターンを分析します。
我々のレビューでは、AIシステムが状況認識を強化し、応答効率を向上し、複雑な意思決定をサポートするとともに、スケーラビリティ、解釈可能性、システムの相互運用性において重要な制限に直面している点を強調している。
論文 参考訳(メタデータ) (2025-09-15T15:18:49Z) - Graphs Meet AI Agents: Taxonomy, Progress, and Future Opportunities [117.49715661395294]
データ構造化は、複雑で非組織的なデータをよく構造化された形式に変換することで、有望な役割を果たす。
この調査では、グラフがAIエージェントにどのように権限を与えるかを、初めて体系的にレビューする。
論文 参考訳(メタデータ) (2025-06-22T12:59:12Z) - Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Toward a Public and Secure Generative AI: A Comparative Analysis of Open and Closed LLMs [0.0]
本研究では,オープンかつクローズドな生成型AIモデルの特徴,機会,課題を批判的に評価し,比較することを目的とする。
提案されたフレームワークは、重要な側面、オープン性、パブリックガバナンス、セキュリティを、信頼できる、包括的なGen AIの未来を形成するための必須の柱として概説している。
論文 参考訳(メタデータ) (2025-05-15T15:21:09Z) - LLM-Based Human-Agent Collaboration and Interaction Systems: A Survey [34.275920463375684]
大規模言語モデル(LLM)は、完全に自律的なエージェントの構築への関心が高まっている。
LLM-HASは、システムの性能、信頼性、安全性を高めるために、人為的な情報、フィードバック、制御をエージェントシステムに組み込む。
本稿は, LLM-HASの総合的かつ構造化された最初の調査である。
論文 参考訳(メタデータ) (2025-05-01T08:29:26Z) - An Overview of Large Language Models for Statisticians [109.38601458831545]
大規模言語モデル(LLM)は人工知能(AI)の変換ツールとして登場した。
本稿では, 統計学者がLLMの開発に重要な貢献できる可能性について考察する。
我々は不確実性定量化、解釈可能性、公正性、プライバシー、透かし、モデル適応といった問題に焦点を当てる。
論文 参考訳(メタデータ) (2025-02-25T03:40:36Z) - The Value of Information in Human-AI Decision-making [23.353778024330165]
情報の価値を特徴付けるための意思決定理論の枠組みに貢献する。
本稿では、SHAPの説明に適応し、人間の補足情報を強調する新しい説明手法を提案する。
我々は,人間の意思決定を最も補完するAIモデルを特定するために,補完的情報の尺度が利用できることを示した。
論文 参考訳(メタデータ) (2025-02-10T04:50:42Z) - AI-Driven Human-Autonomy Teaming in Tactical Operations: Proposed Framework, Challenges, and Future Directions [10.16399860867284]
人工知能(AI)技術は、人間の意思決定能力を増強することで戦術的操作を変革している。
本稿では,AI駆動型人間自律チーム(HAT)を変革的アプローチとして検討する。
我々はAI駆動型HATの重要なコンポーネントに対処する包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-28T15:05:16Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Explainable Interface for Human-Autonomy Teaming: A Survey [12.26178592621411]
本稿では,HATシステムにおける説明可能なインタフェース(EI)の未探索領域について考察する。
我々は,XAI強化HATシステムにおけるEIの設計,開発,評価について検討する。
私たちは、HATのユニークな課題に対処する、EIのための新しいフレームワークにコントリビュートします。
論文 参考訳(メタデータ) (2024-05-04T06:35:38Z) - On the Challenges and Opportunities in Generative AI [155.030542942979]
私たちは、現在の大規模な生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの根本的な欠点を示しています。
我々は、研究者に実りある研究の方向性を探るための洞察を提供することを目標とし、より堅牢でアクセスしやすい生成AIソリューションの開発を促進する。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - The Essential Role of Causality in Foundation World Models for Embodied AI [102.75402420915965]
身体的なAIエージェントは、さまざまな現実世界環境で新しいタスクを実行する能力を必要とします。
現在の基礎モデルは物理的相互作用を正確にモデル化することができないため、Embodied AIには不十分である。
因果関係の研究は、検証世界モデルの構築に寄与する。
論文 参考訳(メタデータ) (2024-02-06T17:15:33Z) - Position Paper: Assessing Robustness, Privacy, and Fairness in Federated Learning Integrated with Foundation Models [13.276195878267922]
ファンデーションモデル(FM)をフェデレートラーニング(FL)に統合することは、堅牢性、プライバシ、公正性の点で新しい問題をもたらす。
我々は、関連するトレードオフを分析し、この統合によってもたらされる脅威と問題を明らかにし、これらの課題をナビゲートするための一連の基準と戦略を提案する。
論文 参考訳(メタデータ) (2024-02-02T19:26:00Z) - Artificial Intelligence for Operations Research: Revolutionizing the Operations Research Process [15.471884798655063]
人工知能(AI)技術の急速な進歩により、オペレーティングリサーチ(OR)を含む様々な分野に革命をもたらす新たな機会が開かれた。
本稿では,AIのORプロセス(AI4OR)への統合について検討し,その有効性と効率を複数の段階にわたって向上させる。
AIとORの相乗効果は、多くの領域において、大幅な進歩と新しいソリューションを推し進める可能性がある。
論文 参考訳(メタデータ) (2024-01-06T15:55:14Z) - Human-AI Collaboration in Thematic Analysis using ChatGPT: A User Study
and Design Recommendations [0.0]
生成人工知能(GenAI)は、定性的研究において、人間とAIのコラボレーションを前進させる有望な可能性を提供する。
この研究は、GenAI、特にChatGPTとのコラボレーションに対する研究者の認識を掘り下げている。
論文 参考訳(メタデータ) (2023-11-07T13:54:56Z) - Confounding-Robust Policy Improvement with Human-AI Teams [9.823906892919746]
限界感度モデル(MSM)を用いて,人間とAIの協調作業における非観測的コンバウンディングに対処する新しい手法を提案する。
このアプローチでは、ドメインの専門知識とAI駆動の統計モデルを組み合わせることで、他の方法では隠される可能性がある共同ファウンダーの可能性を考慮しています。
論文 参考訳(メタデータ) (2023-10-13T02:39:52Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。