論文の概要: Towards an AI assistant for human grid operators
- arxiv url: http://arxiv.org/abs/2012.02026v1
- Date: Thu, 3 Dec 2020 16:12:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 20:27:45.884808
- Title: Towards an AI assistant for human grid operators
- Title(参考訳): 人間グリッドオペレータのためのAIアシスタントを目指して
- Authors: Antoine Marot, Alexandre Rozier, Matthieu Dussartre, Laure
Crochepierre, Benjamin Donnot
- Abstract要約: 電力システムは、デジタル時代の運用がより複雑になっている。
人間のオペレーターがより多くの情報を扱う必要があるため、リアルタイムの意思決定はますます困難になっている。
より統一的でインタラクティブなフレームワークの下で、ヒューマンマシンインターフェースを再考する必要がある。
- 参考スコア(独自算出の注目度): 59.535699822923
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Power systems are becoming more complex to operate in the digital age. As a
result, real-time decision-making is getting more challenging as the human
operator has to deal with more information, more uncertainty, more applications
and more coordination. While supervision has been primarily used to help them
make decisions over the last decades, it cannot reasonably scale up anymore.
There is a great need for rethinking the human-machine interface under more
unified and interactive frameworks. Taking advantage of the latest developments
in Human-machine Interactions and Artificial intelligence, we share the vision
of a new assistant framework relying on an hypervision interface and greater
bidirectional interactions. We review the known principles of decision-making
that drives the assistant design and supporting assistance functions we
present. We finally share some guidelines to make progress towards the
development of such an assistant.
- Abstract(参考訳): 電力システムは、デジタル時代の運用がより複雑になっている。
その結果、人間のオペレータがより多くの情報、不確実性、より多くのアプリケーション、より多くの協調を扱わなければならないため、リアルタイムな意思決定はますます困難になっています。
監視は主に、過去数十年にわたって意思決定を支援するために使用されてきたが、もはや合理的なスケールアップには至っていない。
より統一的でインタラクティブなフレームワークの下で、ヒューマンマシンインターフェースを再考する必要がある。
人間と機械の相互作用と人工知能の最新の進歩を利用して、ハイパービジョンインターフェースとより広い双方向インタラクションに依存する新しいアシスタントフレームワークのビジョンを共有します。
我々は,現在提示している補助的設計と支援機能を駆動する意思決定の既知の原則について検討する。
最終的に、このようなアシスタントの開発に向けて進むためのガイドラインを共有します。
関連論文リスト
- AssistantX: An LLM-Powered Proactive Assistant in Collaborative Human-Populated Environment [15.475084260674384]
AssistantXは、物理的なオフィス環境で自律的に動作するように設計されたプロアクティブアシスタントである。
従来のサービスロボットとは異なり、AssistantXは、高度な推論機能を提供する新しいマルチエージェントアーキテクチャPPDR4Xを利用している。
評価では、アーキテクチャの有効性を強調し、AssistantXが明確な指示に応答し、メモリから積極的に補足情報を検索し、積極的にチームメンバの協力を求め、タスクの完了を確実にすることを示す。
論文 参考訳(メタデータ) (2024-09-26T09:06:56Z) - The Model Mastery Lifecycle: A Framework for Designing Human-AI Interaction [0.0]
ますます多くの分野におけるAIの利用は、長いプロセスの最新のイテレーションである。
異なる状況でAIをどのように使うべきかを決定する方法が緊急に必要である。
論文 参考訳(メタデータ) (2024-08-23T01:00:32Z) - Explainable Human-AI Interaction: A Planning Perspective [32.477369282996385]
AIシステムは、ループ内の人間に説明可能である必要がある。
我々は、AIエージェントがメンタルモデルを使用して人間の期待に沿うか、あるいは説明的コミュニケーションを通じて期待を変更する方法について論じる。
本書の主な焦点は、協調的なシナリオであるが、同じ精神モデルが難読化や偽造にどのように使用できるかを指摘したい。
論文 参考訳(メタデータ) (2024-05-19T22:22:21Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Scalable Interactive Machine Learning for Future Command and Control [1.762977457426215]
将来の戦争では、コマンド・アンド・コントロール(C2)の要員が時間スケールの縮小で決定を下す必要がある。
人工知能とヒューマンインテリジェンスの統合は、C2オペレーションプロセスに革命をもたらす可能性を秘めている。
本稿では、これらのアプローチを複雑なC2コンテキストで機能させるために、今後の研究が取り組むべき最先端の科学と技術のギャップについて述べる。
論文 参考訳(メタデータ) (2024-02-09T16:11:04Z) - Human-AI collaboration is not very collaborative yet: A taxonomy of interaction patterns in AI-assisted decision making from a systematic review [6.013543974938446]
意思決定支援システムにおける人工知能の活用は、技術的進歩に不相応に焦点を合わせてきた。
人間中心の視点は、既存のプロセスとのシームレスな統合のためにAIソリューションを設計することで、この懸念を緩和しようとする。
論文 参考訳(メタデータ) (2023-10-30T17:46:38Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Teachable Reinforcement Learning via Advice Distillation [161.43457947665073]
外部教師が提供した構造化アドバイスから学習する「教育可能な」意思決定システムに基づく対話型学習のための新しい指導パラダイムを提案する。
我々は、アドバイスから学ぶエージェントが、標準的な強化学習アルゴリズムよりも人的監督力の少ない新しいスキルを習得できることを示す。
論文 参考訳(メタデータ) (2022-03-19T03:22:57Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。