論文の概要: A Brief Guide to Designing and Evaluating Human-Centered Interactive
Machine Learning
- arxiv url: http://arxiv.org/abs/2204.09622v1
- Date: Wed, 20 Apr 2022 17:05:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 15:56:05.107066
- Title: A Brief Guide to Designing and Evaluating Human-Centered Interactive
Machine Learning
- Title(参考訳): 人間中心型対話型機械学習の設計と評価に関する簡単なガイド
- Authors: Kory W. Mathewson, Patrick M. Pilarski
- Abstract要約: インタラクティブ機械学習(Interactive Machine Learning, IML)は、意思決定システムにおいて、人間と計算能力の両方を活用する方法を研究する研究分野である。
このガイドは、相互作用する人間の健康、安全、幸福に責任を持つ機械学習の実践者が使用することを意図している。
- 参考スコア(独自算出の注目度): 3.685480240534955
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interactive machine learning (IML) is a field of research that explores how
to leverage both human and computational abilities in decision making systems.
IML represents a collaboration between multiple complementary human and machine
intelligent systems working as a team, each with their own unique abilities and
limitations. This teamwork might mean that both systems take actions at the
same time, or in sequence. Two major open research questions in the field of
IML are: "How should we design systems that can learn to make better decisions
over time with human interaction?" and "How should we evaluate the design and
deployment of such systems?" A lack of appropriate consideration for the humans
involved can lead to problematic system behaviour, and issues of fairness,
accountability, and transparency. Thus, our goal with this work is to present a
human-centred guide to designing and evaluating IML systems while mitigating
risks. This guide is intended to be used by machine learning practitioners who
are responsible for the health, safety, and well-being of interacting humans.
An obligation of responsibility for public interaction means acting with
integrity, honesty, fairness, and abiding by applicable legal statutes. With
these values and principles in mind, we as a machine learning research
community can better achieve goals of augmenting human skills and abilities.
This practical guide therefore aims to support many of the responsible
decisions necessary throughout the iterative design, development, and
dissemination of IML systems.
- Abstract(参考訳): インタラクティブ機械学習(Interactive Machine Learning, IML)は、意思決定システムにおいて人間と計算能力の両方を活用する方法を研究する研究分野である。
IMLは、チームとして働く複数の補完的な人間と機械の知能システム間のコラボレーションを表し、それぞれ独自の能力と制限を持っている。
このチームワークは、両方のシステムが同時に、あるいはシークエンスで行動することを意味します。
IMLの分野における2つの大きなオープンリサーチの質問は、"人間のインタラクションによってよりよい意思決定ができるシステムをどうやって設計すべきか"、"そのようなシステムの設計とデプロイをどのように評価すべきか"である。
関係する人間に対する適切な配慮の欠如は、システムの問題行動や公平性、説明責任、透明性の問題につながる可能性がある。
そこで本研究の目的は,リスクを軽減しつつIMLシステムを設計,評価するための人間中心のガイドを提供することである。
このガイドは、相互作用する人間の健康、安全、幸福に責任を持つ機械学習の実践者が使用することを意図している。
公的な相互作用に対する責任の義務とは、正当性、誠実性、公正性、および該当する法規に従属する行為をいう。
これらの価値観と原則を念頭に置いて、マシンラーニング研究コミュニティとして、人間のスキルと能力を増強する目標を達成できます。
この実践的なガイドは、IMLシステムの反復設計、開発、普及を通じて必要な責任を負う決定の多くを支援することを目的としている。
関連論文リスト
- CogErgLLM: Exploring Large Language Model Systems Design Perspective Using Cognitive Ergonomics [0.0]
LLMと認知エルゴノミクスを統合することは、人間とAIの相互作用における安全性、信頼性、ユーザ満足度を改善するために重要である。
現在のLLMの設計は、この統合を欠いていることが多く、結果として人間の認知能力や限界と完全に一致しない可能性がある。
論文 参考訳(メタデータ) (2024-07-03T07:59:52Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Human-Centred Learning Analytics and AI in Education: a Systematic
Literature Review [0.0]
設計プロセスから利害関係者を排除することは、不信と不適切な整合性ツールにつながる可能性がある。
人間中心の設計へのシフトにもかかわらず、人間のコントロール、安全性、信頼性、信頼性の重要性に対する理解のギャップは依然として残っている。
論文 参考訳(メタデータ) (2023-12-20T04:15:01Z) - Adaptive User-centered Neuro-symbolic Learning for Multimodal
Interaction with Autonomous Systems [0.0]
機械学習の最近の進歩により、自律システムは物体を知覚し、理解することができるようになった。
人間が提供する明示的な教えと、人間の行動を観察して得られる暗黙的な教えの両方を考慮することが不可欠である。
インプットのタイプや,ループ内の人間とインクリメンタルな学習技術についても検討する。
論文 参考訳(メタデータ) (2023-09-11T19:35:12Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - One-way Explainability Isn't The Message [2.618757282404254]
この文脈における人間と機械の両方の要件は、かなり異なると我々は主張する。
このようなヒューマン・マシン・システムの設計は、情報の2方向の繰り返しの可視性によって駆動されるべきである。
我々は、協調的な意思決定支援システムの設計を導くために、運用原則、すなわち、知性公理(Intelligibility Axioms)を提案します。
論文 参考訳(メタデータ) (2022-05-05T09:15:53Z) - Self-directed Machine Learning [86.3709575146414]
教育科学において、自己指導型学習は受動的教師指導型学習よりも効果的であることが示されている。
本稿では,自己指向機械学習(SDML)の基本概念を紹介し,SDMLのためのフレームワークを提案する。
提案したSDMLプロセスは,自己タスク選択,自己データ選択,自己モデル選択,自己最適化戦略選択,自己評価基準選択の恩恵を受ける。
論文 参考訳(メタデータ) (2022-01-04T18:32:06Z) - Meaningful human control over AI systems: beyond talking the talk [8.351027101823705]
私たちは、AIベースのシステムが有意義な人間の制御下にある必要がある4つの特性を特定します。
第一に、人間とAIアルゴリズムが相互作用するシステムは、道徳的にロードされた状況の明確に定義された領域を持つべきである。
第2に、システム内の人間とAIエージェントは、適切かつ相互に互換性のある表現を持つべきである。
第三に、人間に帰属する責任は、その人のシステムを支配する能力と権限に相応すべきである。
論文 参考訳(メタデータ) (2021-11-25T11:05:37Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。