論文の概要: Don't Tell Me The Cybersecurity Moon Is Shining... (Cybersecurity Show
And Tell)
- arxiv url: http://arxiv.org/abs/2103.11030v3
- Date: Tue, 1 Jun 2021 07:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 10:46:09.445578
- Title: Don't Tell Me The Cybersecurity Moon Is Shining... (Cybersecurity Show
And Tell)
- Title(参考訳): サイバーセキュリティの月が輝いているとは言わないで下さい(サイバーセキュリティのショーと説明)
- Authors: Luca Vigan\`o
- Abstract要約: 「ええ、言うなよ」は、どの作家にとっても文学の戒めとなっている。
サイバーセキュリティを説明するために、さまざまな種類のアートワークが利用できるかについて議論します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: "Show, don't tell" has become the literary commandment for any writer. It
applies to all forms of fiction, and to non-fiction, including scientific
writing, where it lies at the heart of many scientific communication and
storytelling approaches. In this paper, I discuss how "show \emph{and} tell" is
actually often the best approach when one wants to present, teach or explain
complicated ideas such as those underlying notions and results in mathematics
and science, and in particular in cybersecurity. I discuss how different kinds
of artworks can be used to explain cybersecurity and I illustrate how telling
(i.e., explaining notions in a formal, technical way) can be paired with
showing through visual storytelling or other forms of storytelling. I also
discuss four categories of artworks and the explanations they help provide.
- Abstract(参考訳): 「ええ、言うなよ」は、どの作家にとっても文学の戒めとなっている。
これはあらゆる形態のフィクションにも当てはまり、科学的な記述を含むノンフィクションにも当てはまり、多くの科学的なコミュニケーションとストーリーテリングのアプローチの中心にある。
本稿では,数学や科学の基盤となる概念や結果,特にサイバーセキュリティにおいて,複雑な概念を提示し,教えたり,説明したりする上で,実際に「説明する(show \emph{and} tell)」が最善のアプローチであることが多いことを論じる。
サイバーセキュリティを説明するために、どのように異なる種類のアートワークが使えるかについて議論し、視覚的なストーリーテリングや他の形態のストーリーテリングを通して、どのように(形式的で技術的に)概念を説明するかを説明する。
また、アートワークの4つのカテゴリとそれらが提供する説明についても論じます。
関連論文リスト
- Are Large Language Models Capable of Generating Human-Level Narratives? [114.34140090869175]
本稿ではストーリーテリングにおけるLLMの能力について考察し,物語の展開とプロットの進行に着目した。
本稿では,3つの談話レベルの側面から物語を分析するための新しい計算フレームワークを提案する。
談話機能の明示的な統合は、ニューラルストーリーテリングの40%以上の改善によって示されるように、ストーリーテリングを促進することができることを示す。
論文 参考訳(メタデータ) (2024-07-18T08:02:49Z) - Envisioning Narrative Intelligence: A Creative Visual Storytelling
Anthology [7.962160810367763]
この創造的なビジュアルなストーリーテリングプロセスで見られるバリエーションを特徴付ける5つのテーマを提示する。
我々は、計算的なビジュアルストーリーテリングのための物語知能基準を、創造的で、信頼性があり、表現力があり、基礎があり、責任があるものとして想定する。
論文 参考訳(メタデータ) (2023-10-06T18:47:20Z) - On the Computational Modeling of Meaning: Embodied Cognition Intertwined
with Emotion [0.9137554315375919]
この文書は、この著者が言葉がどのように彼らが何をしているのかを探求する試みについて記述している。
私は児童語学習の設定を説明します。
言語学習エージェント(Language-learning agent)は、子どもと同じような環境で言語を学習する。
論文 参考訳(メタデータ) (2023-07-10T12:31:27Z) - Story Shaping: Teaching Agents Human-like Behavior with Stories [9.649246837532417]
本稿では、強化学習エージェントが、タスクの達成方法に関する模範的なストーリーから暗黙の知識を推測するストーリーシェイピングを紹介する。
エージェントの推論された世界状態グラフと推定されたストーリー世界グラフとの類似性に基づいて本質的な報酬を生成する。
テキストベースのゲームにおいて,エージェントの動作を仮想ゲームキャラクタとして記述し,常識推論を必要とする実験を行った。
論文 参考訳(メタデータ) (2023-01-24T16:19:09Z) - One Artist's Personal Reflections on Methods and Ethics of Creating
Mixed Media Artificial Intelligence Art [0.0]
「自己記述アーティストの単一単位としての主観的経験を科学的に貢献するつもりだ。」
私はこれまで、芸術家として、私の個人的歴史についていくつか背景を述べます。
アーティストも科学者も真空には存在しないので、私はこの領域で自分自身の著作や思考を文脈化するのに役立った、いくつかの(排他的でない)関連作品を紹介します。
論文 参考訳(メタデータ) (2022-11-30T21:58:58Z) - "Mama Always Had a Way of Explaining Things So I Could Understand'': A
Dialogue Corpus for Learning to Construct Explanations [26.540485804067536]
対話的説明の最初のコーパスを導入し,人間の説明の仕方についてNLP研究を可能にする。
コーパスは、Wiredのテレビシリーズ『emph5 Levels』の65の英訳対話からなり、13のトピックと5人の熟練者について解説している。
論文 参考訳(メタデータ) (2022-09-06T14:00:22Z) - Iconary: A Pictionary-Based Game for Testing Multimodal Communication
with Drawings and Text [70.14613727284741]
人間とのコミュニケーションは、世界の共通理解、複雑なセマンティクス、時にはマルチモーダルなジェスチャーを必要とするため、AIにとって難しい。
図面と推測の協調ゲームであるIconaryの文脈において,これらの課題を考察する。
我々は、Iconaryをプレイし、人間のプレイヤー間で55,000以上のゲームでそれらをトレーニングするモデルを提案する。
論文 参考訳(メタデータ) (2021-12-01T19:41:03Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - COBE: Contextualized Object Embeddings from Narrated Instructional Video [52.73710465010274]
そこで本稿では,教師ビデオの自動書き起こしからコンテキスト適応型オブジェクト埋め込みを学習するための新しいフレームワークを提案する。
言語の意味的・構成的構造を視覚的検知器を訓練し,オブジェクトとその関連するナレーションの文脈的単語埋め込みを予測する。
実験の結果,検出器は多種多様なコンテキストオブジェクト情報を予測し,少数ショットおよびゼロショット学習の設定において極めて有効であることがわかった。
論文 参考訳(メタデータ) (2020-07-14T19:04:08Z) - Hide-and-Tell: Learning to Bridge Photo Streams for Visual Storytelling [86.42719129731907]
視覚的ギャップを埋めるストーリーラインを明示的に学習することを提案する。
私たちは、欠落した写真であっても、ネットワークをトレーニングして、完全なプラウティブルなストーリーを作り出す。
実験では,本手法とネットワーク設計がストーリーテリングに有効であることを示す。
論文 参考訳(メタデータ) (2020-02-03T14:22:18Z) - A Deep Neural Framework for Contextual Affect Detection [51.378225388679425]
感情を持たない短い単純なテキストは、その文脈と共に読むときに強い感情を表現することができる。
文中の単語の相互依存を学習する文脈影響検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-28T05:03:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。