論文の概要: Video Surveillance System Incorporating Expert Decision-making Process:
A Case Study on Detecting Calving Signs in Cattle
- arxiv url: http://arxiv.org/abs/2301.03926v1
- Date: Tue, 10 Jan 2023 12:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 17:49:06.968674
- Title: Video Surveillance System Incorporating Expert Decision-making Process:
A Case Study on Detecting Calving Signs in Cattle
- Title(参考訳): 専門的意思決定プロセスを導入したビデオサーベイランスシステム:牛のカルビング信号検出を事例として
- Authors: Ryosuke Hyodo, Susumu Saito, Teppei Nakano, Makoto Akabane, Ryoichi
Kasuga, Tetsuji Ogawa
- Abstract要約: 本研究では、専門家の意思決定プロセスと、通知対象の豊富なドメイン知識を組み込むことにより、予測の背後にある推論を提示するビデオ監視AIシステムの枠組みについて検討する。
本研究は,畜産従事者とのユーザスタディを通じて,提案手法に基づく牛の養殖の兆候を検出するシステムを構築し,そのシステムの評価を行った。
- 参考スコア(独自算出の注目度): 5.80793470875286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Through a user study in the field of livestock farming, we verify the
effectiveness of an XAI framework for video surveillance systems. The systems
can be made interpretable by incorporating experts' decision-making processes.
AI systems are becoming increasingly common in real-world applications,
especially in fields related to human decision-making, and its interpretability
is necessary. However, there are still relatively few standard methods for
assessing and addressing the interpretability of machine learning-based systems
in real-world applications. In this study, we examine the framework of a video
surveillance AI system that presents the reasoning behind predictions by
incorporating experts' decision-making processes with rich domain knowledge of
the notification target. While general black-box AI systems can only present
final probability values, the proposed framework can present information
relevant to experts' decisions, which is expected to be more helpful for their
decision-making. In our case study, we designed a system for detecting signs of
calving in cattle based on the proposed framework and evaluated the system
through a user study (N=6) with people involved in livestock farming. A
comparison with the black-box AI system revealed that many participants
referred to the presented reasons for the prediction results, and five out of
six participants selected the proposed system as the system they would like to
use in the future. It became clear that we need to design a user interface that
considers the reasons for the prediction results.
- Abstract(参考訳): 畜産分野のユーザ研究を通じて,ビデオ監視システムにおけるXAIフレームワークの有効性を検証する。
システムは専門家の意思決定プロセスを取り込むことで解釈可能である。
AIシステムは、現実世界のアプリケーション、特に人間の意思決定に関連する分野において、ますます一般的になりつつある。
しかし、現実世界のアプリケーションにおける機械学習ベースのシステムの解釈可能性を評価するための標準的な方法はまだ比較的少ない。
本研究では,通知対象のドメイン知識に富んだ専門家の意思決定プロセスを取り込むことで,予測の背後にある推論を提示するビデオ監視aiシステムの枠組みを検討する。
一般的なブラックボックスAIシステムは最終的な確率値しか提示できないが、提案するフレームワークは専門家の判断に関連する情報を提示することができる。
本研究は,提案手法に基づき,牛の産卵の兆候を検知するシステムを設計し,農耕関係者を対象に,ユーザ・スタディ (n=6) によるシステム評価を行った。
ブラックボックスAIシステムとの比較では、多くの参加者が予測結果の提示された理由について言及しており、6人中5人が将来使いたいシステムとして提案されたシステムを選択した。
予測結果の理由を考慮に入れたユーザインターフェースを設計する必要があることが明らかになった。
関連論文リスト
- Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Painting the black box white: experimental findings from applying XAI to
an ECG reading setting [0.13124513975412253]
シンボリックAIシステムからブラックボックス、サブシンボリック、統計システムへの移行は、説明可能なAI(XAI)への関心の急激な増加を動機付けている。
我々は,ユーザによる説明・XAIシステムに対する認識の認知次元に着目した。
論文 参考訳(メタデータ) (2022-10-27T07:47:50Z) - Explainable Intrusion Detection Systems (X-IDS): A Survey of Current
Methods, Challenges, and Opportunities [0.0]
侵入検知システム(IDS)は、大量のデータを高い予測精度で処理できるため、広く採用されている。
深層学習(DL)技術を用いて設計されたIDSは、ブラックボックスモデルとして扱われることが多く、予測の正当化は提供されない。
この調査では、IDSの最先端AI(XAI)とその現在の課題についてレビューし、これらの課題がX-IDSの設計にどのように当てはまるかを論じる。
論文 参考訳(メタデータ) (2022-07-13T14:31:46Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z) - AHMoSe: A Knowledge-Based Visual Support System for Selecting Regression
Machine Learning Models [2.9998889086656577]
AHMoSeは、ドメインの専門家がさまざまな回帰モデルを理解し、診断し、比較するためのビジュアルサポートシステムである。
本稿では,ブドウ栽培分野におけるユースケースシナリオであるブドウの品質予測について述べる。
論文 参考訳(メタデータ) (2021-01-28T12:55:06Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - A systematic review and taxonomy of explanations in decision support and
recommender systems [13.224071661974596]
我々は,勧告システムにおける説明に関する文献を体系的にレビューする。
我々は、説明施設を設計する際に考慮すべき側面の包括的分類法を考案した。
論文 参考訳(メタデータ) (2020-06-15T18:19:20Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。