論文の概要: AI-in-the-Loop -- The impact of HMI in AI-based Application
- arxiv url: http://arxiv.org/abs/2303.11508v1
- Date: Tue, 21 Mar 2023 00:04:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 17:07:06.141681
- Title: AI-in-the-Loop -- The impact of HMI in AI-based Application
- Title(参考訳): AI-in-the-Loop -- AIベースのアプリケーションにおけるHMIの影響
- Authors: Julius Sch\"oning and Clemens Westerkamp
- Abstract要約: 我々は,AIと人間の強みを組み合わせたループ型AIの概念を導入する。
AIを使用した推論でHMIを有効にすることで、AIと人間の強みを組み合わせた、ループ内のAIの概念を導入します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) and human-machine interaction (HMI) are two
keywords that usually do not fit embedded applications. Within the steps needed
before applying AI to solve a specific task, HMI is usually missing during the
AI architecture design and the training of an AI model. The human-in-the-loop
concept is prevalent in all other steps of developing AI, from data analysis
via data selection and cleaning to performance evaluation. During AI
architecture design, HMI can immediately highlight unproductive layers of the
architecture so that lightweight network architecture for embedded applications
can be created easily. We show that by using this HMI, users can instantly
distinguish which AI architecture should be trained and evaluated first since a
high accuracy on the task could be expected. This approach reduces the
resources needed for AI development by avoiding training and evaluating AI
architectures with unproductive layers and leads to lightweight AI
architectures. These resulting lightweight AI architectures will enable HMI
while running the AI on an edge device. By enabling HMI during an AI uses
inference, we will introduce the AI-in-the-loop concept that combines AI's and
humans' strengths. In our AI-in-the-loop approach, the AI remains the working
horse and primarily solves the task. If the AI is unsure whether its inference
solves the task correctly, it asks the user to use an appropriate HMI.
Consequently, AI will become available in many applications soon since HMI will
make AI more reliable and explainable.
- Abstract(参考訳): 人工知能(AI)とヒューマンマシンインタラクション(HMI)は、通常組み込みアプリケーションに適合しない2つのキーワードである。
特定のタスクを解決するためにAIを適用するために必要なステップの中で、HMIは通常、AIアーキテクチャ設計とAIモデルのトレーニングの間に欠落している。
ヒューマン・イン・ザ・ループの概念は、データ選択によるデータ分析やクリーニング、パフォーマンス評価など、AI開発における他のすべてのステップで広く使われている。
AIアーキテクチャ設計の間、HMIは即座にアーキテクチャの非生産層を強調し、組み込みアプリケーションのための軽量ネットワークアーキテクチャを容易に作成できる。
このhmiを使用することで、タスクの正確性が期待できるため、ユーザはまず、どのaiアーキテクチャをトレーニングし、評価すべきかを即座に識別できる。
このアプローチは、非生産的なレイヤによるAIアーキテクチャのトレーニングや評価を回避し、軽量なAIアーキテクチャにつながることによって、AI開発に必要なリソースを削減する。
これらの軽量AIアーキテクチャは、エッジデバイス上でAIを実行中にHMIを可能にする。
AIを用いた推論中にHMIを有効にすることにより、AIと人間の強みを組み合わせた、ループ内のAIの概念を導入する。
AI-in-the-loopアプローチでは、AIは依然として作業馬であり、そのタスクを主に解決しています。
もしAIが、その推論がそのタスクを正しく解いたかどうかわからない場合、適切なHMIを使用することをユーザに求める。
その結果、HMIがAIをより信頼性が高く説明しやすくするため、AIはすぐに多くのアプリケーションで利用できるようになる。
関連論文リスト
- The Model Mastery Lifecycle: A Framework for Designing Human-AI Interaction [0.0]
ますます多くの分野におけるAIの利用は、長いプロセスの最新のイテレーションである。
異なる状況でAIをどのように使うべきかを決定する方法が緊急に必要である。
論文 参考訳(メタデータ) (2024-08-23T01:00:32Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - LeanAI: A method for AEC practitioners to effectively plan AI
implementations [1.213096549055645]
AIの使用に関する熱意にもかかわらず、現在のビッグデータプロジェクトの85%は失敗している。
AEC業界でAIプロジェクトが失敗する主な理由の1つは、AIの計画や使用を決定した人とそれを実装する人との接続を断つことである。
この研究はLeanAIメソッドを導入し、AIが解決すべきもの、解決すべきもの、解決すべきものを説明する。
論文 参考訳(メタデータ) (2023-06-29T09:18:11Z) - Prompt Sapper: LLM-Empowered Software Engineering Infrastructure for
AI-Native Services [37.05145017386908]
Prompt SapperはAIチェーンエンジニアリングによるAIネイティブサービスの開発をサポートすることを約束している。
それは、人間とAIの協調的なインテリジェンスを通じてAIチェーンをオーサリングするための、ソフトウェアエンジニアリングインフラストラクチャの強化された大きな言語モデル(LLM)を作成する。
この記事では、Prompt Sapperの背後にあるR&Dモチベーションと、それに対応するAIチェーンエンジニアリング方法論と技術的なプラクティスを紹介する。
論文 参考訳(メタデータ) (2023-06-04T01:47:42Z) - End-User Development for Artificial Intelligence: A Systematic
Literature Review [2.347942013388615]
エンドユーザ開発(EUD)は、AIベースのシステムを自分たちのニーズに合わせて作成、カスタマイズ、あるいは適用することができる。
本稿では,AIシステムにおけるEUDの現在の状況に光を当てることを目的とした文献レビューを紹介する。
論文 参考訳(メタデータ) (2023-04-14T09:57:36Z) - HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in Hugging
Face [85.25054021362232]
大規模言語モデル(LLM)は、言語理解、生成、相互作用、推論において例外的な能力を示した。
LLMは、複雑なAIタスクを解決するために既存のAIモデルを管理するコントローラとして機能する可能性がある。
本稿では,機械学習コミュニティのさまざまなAIモデルを接続するLLMエージェントであるHuggingGPTを紹介する。
論文 参考訳(メタデータ) (2023-03-30T17:48:28Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。