論文の概要: Making a Bird AI Expert Work for You and Me
- arxiv url: http://arxiv.org/abs/2112.02747v1
- Date: Mon, 6 Dec 2021 02:47:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 07:51:24.052111
- Title: Making a Bird AI Expert Work for You and Me
- Title(参考訳): 鳥のAI専門家があなたと私のために働くようにする
- Authors: Dongliang Chang, Kaiyue Pang, Ruoyi Du, Zhanyu Ma, Yi-Zhe Song, Jun
Guo
- Abstract要約: 人間がAIから学ぶためのトランスファー可能な知識を構成するものは何か?
本稿では,知識を専門家排他的な高度に識別可能な視覚領域として表現することを提案する。
15,000件の治験を総合的に調査した結果, 飛散する鳥の専門知識を継続的に改善できることがわかった。
- 参考スコア(独自算出の注目度): 46.632625411724625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As powerful as fine-grained visual classification (FGVC) is, responding your
query with a bird name of "Whip-poor-will" or "Mallard" probably does not make
much sense. This however commonly accepted in the literature, underlines a
fundamental question interfacing AI and human -- what constitutes transferable
knowledge for human to learn from AI? This paper sets out to answer this very
question using FGVC as a test bed. Specifically, we envisage a scenario where a
trained FGVC model (the AI expert) functions as a knowledge provider in
enabling average people (you and me) to become better domain experts ourselves,
i.e. those capable in distinguishing between "Whip-poor-will" and "Mallard".
Fig. 1 lays out our approach in answering this question. Assuming an AI expert
trained using expert human labels, we ask (i) what is the best transferable
knowledge we can extract from AI, and (ii) what is the most practical means to
measure the gains in expertise given that knowledge? On the former, we propose
to represent knowledge as highly discriminative visual regions that are
expert-exclusive. For that, we devise a multi-stage learning framework, which
starts with modelling visual attention of domain experts and novices before
discriminatively distilling their differences to acquire the expert exclusive
knowledge. For the latter, we simulate the evaluation process as book guide to
best accommodate the learning practice of what is accustomed to humans. A
comprehensive human study of 15,000 trials shows our method is able to
consistently improve people of divergent bird expertise to recognise once
unrecognisable birds. Interestingly, our approach also leads to improved
conventional FGVC performance when the extracted knowledge defined is utilised
as means to achieve discriminative localisation. Codes are available at:
https://github.com/PRIS-CV/Making-a-Bird-AI-Expert-Work-for-You-and-Me
- Abstract(参考訳): きめ細かい視覚分類(FGVC)と同じくらい強力で、"Whip-poor-will"や"Mallard"といった鳥の名前のクエリに応答しても、おそらくあまり意味がないでしょう。
これは文献で一般的に受け入れられているが、AIと人間の対面する根本的な疑問が根底にある。
本稿では,FGVCをテストベッドとして利用して,この疑問に答える。
具体的には、トレーニングされたFGVCモデル(AI専門家)が、平均的な人々(あなたと私)がより優れたドメインエキスパートになることを可能にするための、知識提供者として機能するシナリオ、すなわち、"Whip-poor-will"と"Mallard"を区別する能力を持つことを考えます。
第1図 この問題に対する我々のアプローチを概説する。
専門家のラベルを使って訓練されたAI専門家に聞く
(i)AIから抽出できる最良の伝達可能な知識とは何か、
(二)その知識を踏まえて専門知識の利得を測る最も実践的な手段は何か。
前者では,知識を高度に識別可能な視覚領域として表現することを提案する。
そこで我々は,ドメインエキスパートと初心者の視覚的注意をモデル化し,その違いを識別的に蒸留して専門的な専門知識を取得するための多段階学習フレームワークを考案した。
後者については,評価過程を書籍ガイドとしてシミュレートし,人間が慣れ親しんだことの学習実践を最善に適応させる。
1万5千回に及ぶ総合的な人間実験の結果,渡り鳥の専門知識を一貫して向上させ,一度しか認識できない鳥を識別できることが判明した。
また,本手法は,抽出した知識を識別的局所化を実現する手段として利用することにより,従来のFGVCの性能を向上させる。
https://github.com/PRIS-CV/Making-a-Bird-AI-Expert-Work-for-You-and-Me
関連論文リスト
- Bridging the Human-AI Knowledge Gap: Concept Discovery and Transfer in
AlphaZero [10.569213003371654]
AIシステムであるAlphaZeroから新しいチェスの概念を抽出する方法を示す。
4人のチェスのグランドマスターが提示されたコンセプトのプロトタイプ位置の解法の改善を示した結果,これらの概念はトップ・ヒューマン・エキスパートによって学習可能であることが示された。
これは、AIを活用することで人間の知識のフロンティアを前進させる上で、最初の重要なマイルストーンとなる。
論文 参考訳(メタデータ) (2023-10-25T06:49:26Z) - Physics of Language Models: Part 3.2, Knowledge Manipulation [51.68385617116854]
本稿では,4つの基本的な知識操作タスクについて検討する。
言語モデルは知識検索に優れるが、最も単純な分類や比較タスクにも耐え難い。
また, GPT-4のような近代的な事前学習言語モデルにも適用できる。
論文 参考訳(メタデータ) (2023-09-25T17:50:41Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - Responsibility: An Example-based Explainable AI approach via Training
Process Inspection [1.4610038284393165]
我々は、特定の決定に対して最も責任あるトレーニング例を特定する新しいXAIアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、という説明として示されます。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に有効であることが示唆された。
論文 参考訳(メタデータ) (2022-09-07T19:30:01Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - The Curious Layperson: Fine-Grained Image Recognition without Expert
Labels [90.88501867321573]
我々は、専門家のアノテーションを使わずに、きめ細かい画像認識という新しい問題を考える。
非専門的な画像記述を用いてオブジェクトの視覚的外観を記述するモデルを学ぶ。
次に、画像記述と文書とを文レベルでマッチングする、きめ細かいテキスト類似性モデルを訓練する。
論文 参考訳(メタデータ) (2021-11-05T17:58:37Z) - Teaching the Machine to Explain Itself using Domain Knowledge [4.462334751640166]
非技術的人間-ループは、モデル予測の背後にある理論的根拠を理解するのに苦労する。
本稿では、意思決定タスクと関連する説明を共同で学習するニューラルネットワークベースのフレームワークJOELを提案する。
認定された専門家のプールからドメインフィードバックを収集し、それをモデル(人間の教え)を改善するために利用します。
論文 参考訳(メタデータ) (2020-11-27T18:46:34Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。