論文の概要: Explaining How a Neural Network Play the Go Game and Let People Learn
- arxiv url: http://arxiv.org/abs/2310.09838v1
- Date: Sun, 15 Oct 2023 13:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 17:50:49.446679
- Title: Explaining How a Neural Network Play the Go Game and Let People Learn
- Title(参考訳): ニューラルネットワークがいかにしてgoゲームをプレイし、人々に学習させるかを説明する
- Authors: Huilin Zhou, Huijie Tang, Mingjie Li, Hao Zhang, Zhenyu Liu, Quanshi
Zhang
- Abstract要約: AIモデルは、Goのゲームで人間のプレイヤーを追い越した。
AIモデルは、人間のプレイヤーを超えて、Goゲームに関する新しい知識をエンコードしたと広く信じられている。
- 参考スコア(独自算出の注目度): 26.192580802652742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The AI model has surpassed human players in the game of Go, and it is widely
believed that the AI model has encoded new knowledge about the Go game beyond
human players. In this way, explaining the knowledge encoded by the AI model
and using it to teach human players represent a promising-yet-challenging issue
in explainable AI. To this end, mathematical supports are required to ensure
that human players can learn accurate and verifiable knowledge, rather than
specious intuitive analysis. Thus, in this paper, we extract interaction
primitives between stones encoded by the value network for the Go game, so as
to enable people to learn from the value network. Experiments show the
effectiveness of our method.
- Abstract(参考訳): AIモデルは、Goのゲームにおいて人間のプレイヤーを上回っており、AIモデルは人間のプレイヤー以外のGoゲームに関する新しい知識を符号化したと広く信じられている。
このようにして、AIモデルによって符号化された知識を説明し、それを人間のプレイヤーに教えることは、説明可能なAIにおいて有望な問題である。
この目的のためには、人間のプレイヤーが特異な直感的な分析よりも正確で検証可能な知識を学べるように数学的支援が必要である。
そこで,本稿では,囲碁の値ネットワークによって符号化された石同士の相互作用プリミティブを抽出し,ユーザが値ネットワークから学習できるようにする。
実験により本手法の有効性が示された。
関連論文リスト
- WinoGAViL: Gamified Association Benchmark to Challenge
Vision-and-Language Models [91.92346150646007]
本研究では,視覚・言語関係を収集するオンラインゲームであるWinoGAViLを紹介する。
私たちはこのゲームを使って3.5Kのインスタンスを収集し、それらが人間には直感的だが最先端のAIモデルには挑戦的であることを発見した。
我々の分析とプレイヤーからのフィードバックは、収集された協会が多様な推論スキルを必要とすることを示している。
論文 参考訳(メタデータ) (2022-07-25T23:57:44Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Instructive artificial intelligence (AI) for human training, assistance,
and explainability [0.24629531282150877]
ニューラルネットワークが従来のAI(XAI)の代替手段として人間の研修生にどのように教えるかを示す。
AIは人間の行動を調べ、より良いパフォーマンスをもたらす人間の戦略のバリエーションを計算する。
結果は、ハナビにおける人間の意思決定と人間-AIチームを改善するAIインストラクションの能力について提示される。
論文 参考訳(メタデータ) (2021-11-02T16:46:46Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - AI in (and for) Games [0.9920773256693857]
この章では、人工知能(AI)/機械学習(ML)アルゴリズムとデジタルゲームとの関係について概説する。
一方、ai/ml研究者は、人間の感情的活動、プレイヤーの行動に関する大規模かつ内部的なデータセットを生成できる。
一方、ゲームは知的アルゴリズムを利用して、ゲームレベルのテストの自動化、コンテンツの生成、知的でレスポンシブな非プレイヤーキャラクタ(NPC)の開発、プレイヤーの振る舞いの予測と応答を行うことができる。
論文 参考訳(メタデータ) (2021-05-07T08:57:07Z) - Player-AI Interaction: What Neural Network Games Reveal About AI as Play [14.63311356668699]
本稿では,人間がAIとどのように相互作用するかを学習し,実験する上で,ゲームは理想的な領域である,と論じる。
ニューラルネットワークゲームの体系的な調査を通じて、優勢な相互作用のメタファーとAIの相互作用パターンを特定した。
我々の研究は、ゲームとUXデザイナが人間とAIの相互作用の学習曲線を構築するためのフローを考えるべきであることを示唆している。
論文 参考訳(メタデータ) (2021-01-15T17:07:03Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Explainability via Responsibility [0.9645196221785693]
本稿では,特定のトレーニングインスタンスをユーザに提供する,説明可能な人工知能へのアプローチを提案する。
我々は、AIエージェントの動作の説明を人間のユーザに提供する能力を近似することで、このアプローチを評価する。
論文 参考訳(メタデータ) (2020-10-04T20:41:03Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。