論文の概要: Monitoring Trust in Human-Machine Interactions for Public Sector
Applications
- arxiv url: http://arxiv.org/abs/2010.08140v1
- Date: Fri, 16 Oct 2020 03:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 21:14:43.488569
- Title: Monitoring Trust in Human-Machine Interactions for Public Sector
Applications
- Title(参考訳): 公共部門における人間と機械のインタラクションのモニタリング
- Authors: Farhana Faruqe, Ryan Watkins, and Larry Medsker
- Abstract要約: 本研究は,AIを用いたヒューマン・マシーンインタラクション(HMI)を用いた心理生理学的センサーの能力と,人間に対する信頼度を検出する尺度に対処する。
脳波とGSRデータを分析する上での課題は、測定値に多数の変数があるため、大量のトレーニングデータを必要とすることである。
我々は,HMIシステムの信頼性の監視・向上に必要なデータ量を削減するプロセスとして,Local Interpretable Model-Agnostic Explanations (LIME)モデルを用いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The work reported here addresses the capacity of psychophysiological sensors
and measures using Electroencephalogram (EEG) and Galvanic Skin Response (GSR)
to detect levels of trust for humans using AI-supported Human-Machine
Interaction (HMI). Improvements to the analysis of EEG and GSR data may create
models that perform as well, or better than, traditional tools. A challenge to
analyzing the EEG and GSR data is the large amount of training data required
due to a large number of variables in the measurements. Researchers have
routinely used standard machine-learning classifiers like artificial neural
networks (ANN), support vector machines (SVM), and K-nearest neighbors (KNN).
Traditionally, these have provided few insights into which features of the EEG
and GSR data facilitate the more and least accurate predictions - thus making
it harder to improve the HMI and human-machine trust relationship. A key
ingredient to applying trust-sensor research results to practical situations
and monitoring trust in work environments is the understanding of which key
features are contributing to trust and then reducing the amount of data needed
for practical applications. We used the Local Interpretable Model-agnostic
Explanations (LIME) model as a process to reduce the volume of data required to
monitor and enhance trust in HMI systems - a technology that could be valuable
for governmental and public sector applications. Explainable AI can make HMI
systems transparent and promote trust. From customer service in government
agencies and community-level non-profit public service organizations to
national military and cybersecurity institutions, many public sector
organizations are increasingly concerned to have effective and ethical HMI with
services that are trustworthy, unbiased, and free of unintended negative
consequences.
- Abstract(参考訳): 今回報告された研究は、脳波(EEG)とGalvanic Skin Response(GSR)を用いて、AIが支援するHuman-Machine Interaction(HMI)を用いて、人間の信頼レベルを検出する心理生理学的センサーの容量と測定値に対処する。
EEGとGSRデータの解析の改善は、従来のツールよりも、あるいはより優れたモデルを生成する可能性がある。
脳波とGSRデータを分析する上での課題は、測定値に多数の変数があるため、大量のトレーニングデータを必要とすることである。
研究者は、ANN(Artificial Neural Network)、サポートベクターマシン(SVM)、K-nearest neighbors(KNN)などの標準的な機械学習分類器を常用している。
伝統的に、これらは脳波とGSRデータのどの特徴がより正確で正確な予測を促進するかについての洞察をほとんど提供していない。
信頼センサ研究結果を現実の状況に適用し、作業環境における信頼を監視する上で重要な要素は、どの重要な機能が信頼に寄与しているかを理解し、実用的応用に必要なデータ量を削減することだ。
我々は、HMIシステムの信頼性を監視・強化するために必要なデータ量を削減するプロセスとして、Local Interpretable Model-Anostic Explanations(LIME)モデルを使用しました。
説明可能なAIは、HMIシステムを透過化し、信頼を促進する。
政府機関のカスタマーサービスや、コミュニティレベルの非営利の公共サービス組織から、軍事・サイバーセキュリティ機関まで、多くの公共セクター組織は、信頼に値する、バイアスのない、意図しない否定的な結果のないサービスで効果的かつ倫理的なHMIを持つことをますます懸念している。
関連論文リスト
- CRMArena: Understanding the Capacity of LLM Agents to Perform Professional CRM Tasks in Realistic Environments [90.29937153770835]
CRMArenaは、プロフェッショナルな作業環境に根ざした現実的なタスクにおいて、AIエージェントを評価するために設計されたベンチマークである。
現状のLDMエージェントはReActプロンプトのタスクの40%以下で成功し,機能呼び出し能力でも55%以下であった。
この結果から,実環境に展開する関数呼び出しやルールフォローにおいて,エージェント機能の向上の必要性が示唆された。
論文 参考訳(メタデータ) (2024-11-04T17:30:51Z) - Evaluating Cultural and Social Awareness of LLM Web Agents [113.49968423990616]
CASAは,大規模言語モデルの文化的・社会的規範に対する感受性を評価するためのベンチマークである。
提案手法は,標準に違反するユーザクエリや観察を検知し,適切に応答するLLMエージェントの能力を評価する。
実験により、現在のLLMは非エージェント環境で大幅に性能が向上していることが示された。
論文 参考訳(メタデータ) (2024-10-30T17:35:44Z) - NeuralSentinel: Safeguarding Neural Network Reliability and
Trustworthiness [0.0]
我々は,AIモデルの信頼性と信頼性を検証するツールであるNeuralSentinel(NS)を提案する。
NSは、モデル決定を理解することによって、専門家以外のスタッフがこの新しいシステムに対する信頼を高めるのに役立つ。
このツールはハッカソンイベントにデプロイされ、皮膚がん画像検出器の信頼性を評価するために使用された。
論文 参考訳(メタデータ) (2024-02-12T09:24:34Z) - Survey on Foundation Models for Prognostics and Health Management in
Industrial Cyber-Physical Systems [1.1034992901877594]
BERTやGPTのような大規模基盤モデル(LFM)は、AI技術の大幅な進歩を示している。
ChatGPTはこの研究パラダイムにおける顕著な成果であり、汎用人工知能の可能性を秘めている。
データ取得技術とデータ処理能力の継続的な向上を考えると、LCMはICPSのPHMドメインにおいて重要な役割を担うことが期待されている。
論文 参考訳(メタデータ) (2023-12-11T09:58:46Z) - CEFHRI: A Communication Efficient Federated Learning Framework for
Recognizing Industrial Human-Robot Interaction [8.568323820210686]
HRI(Human-robot Interaction)は、社会と産業の応用を包含する急速に成長する分野である。
データプライバシは、機密データを保護する必要があるため、人間とロボットのインタラクションにおいて重要な関心事である。
フェデレートラーニング(FL)は、生データを共有せずに、モデルの分散トレーニングを可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-08-29T01:34:33Z) - Distributed data analytics [8.415530878975751]
レコメンデーションシステムは、オンラインサービスプロバイダの重要なコンポーネントである。
金融業界は不正検出、リスク管理、コンプライアンスなどの分野で大量のデータを活用するためにMLを採用している。
論文 参考訳(メタデータ) (2022-03-26T14:10:51Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Human Parity on CommonsenseQA: Augmenting Self-Attention with External
Attention [66.93307963324834]
本稿では,外部の知識や状況に配慮した外部アテンション機構を備えたトランスフォーマーアーキテクチャの強化を提案する。
提案した外部注意機構は,既存のAIシステムの性能を大幅に向上させることができる。
提案システムは、オープンなCommonsenseQA研究ベンチマークにおいて、89.4%の精度で人間に匹敵する88.9%の精度で人間に匹敵する。
論文 参考訳(メタデータ) (2021-12-06T18:59:02Z) - The Powerful Use of AI in the Energy Sector: Intelligent Forecasting [7.747343962518897]
本稿では,エネルギー部門におけるAIシステムの開発,展開,評価を行う手法を提案する。
目標は、エネルギーユーティリティーユーザーに高い信頼性を提供することだ。
論文 参考訳(メタデータ) (2021-11-03T05:30:42Z) - Transformers for prompt-level EMA non-response prediction [62.41658786277712]
エコロジー・モメンタリー・アセスメント(Ecological Momentary Assessments、EMA)は、認知状態、影響、行動、環境要因を測定するための重要な心理的データ源である。
参加者がEMAプロンプトに反応しない非応答は、内因性問題である。
非応答を正確に予測できる能力は、EMAのデリバリを改善し、コンプライアンスの介入を開発するために利用することができる。
論文 参考訳(メタデータ) (2021-11-01T18:38:47Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。