論文の概要: Automatic Story Generation: Challenges and Attempts
- arxiv url: http://arxiv.org/abs/2102.12634v1
- Date: Thu, 25 Feb 2021 02:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-26 13:52:02.300961
- Title: Automatic Story Generation: Challenges and Attempts
- Title(参考訳): 自動ストーリー生成:挑戦と挑戦
- Authors: Amal Alabdulkarim, Siyan Li, Xiangyu Peng
- Abstract要約: 本研究のスコープは,自動ストーリー生成における課題を検討することである。
以下の方法で貢献できることを願っています。
今後の研究の方向性と、さらなる進歩に役立つ新しい技術について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scope of this survey paper is to explore the challenges in automatic
story generation. We hope to contribute in the following ways: 1. Explore how
previous research in story generation addressed those challenges. 2. Discuss
future research directions and new technologies that may aid more advancements.
3. Shed light on emerging and often overlooked challenges such as creativity
and discourse.
- Abstract(参考訳): 本研究のスコープは,自動ストーリー生成における課題を検討することである。
私たちは以下の方法で貢献したいと考えています。
ストーリージェネレーションにおける過去の研究がこれらの課題にどのように対処したかを探る。
2.
今後の研究の方向性と、さらなる進歩に役立つ新しい技術について論じる。
3.
創造性や談話など、しばしば見過ごされがちな課題に光を当てた。
関連論文リスト
- V3Det Challenge 2024 on Vast Vocabulary and Open Vocabulary Object Detection: Methods and Results [142.5704093410454]
V3Det Challenge 2024は、オブジェクト検出研究の境界を推し進めることを目的としている。
Vast Vocabulary Object DetectionとOpen Vocabulary Object Detectionの2つのトラックで構成されている。
我々は,広い語彙とオープン語彙のオブジェクト検出において,今後の研究の方向性を刺激することを目指している。
論文 参考訳(メタデータ) (2024-06-17T16:58:51Z) - Story Generation from Visual Inputs: Techniques, Related Tasks, and Challenges [0.21847754147782888]
この調査では、画像やビデオのキャプション、視覚的質問応答など、自動ストーリ生成に関わるタスクについても取り上げている。
これらのタスクは、視覚的なストーリー生成と共通の課題を共有し、現場で使用されるテクニックのインスピレーションとなった。
主要なデータセットと評価指標を分析し、それらの制限について重要な視点を提供する。
論文 参考訳(メタデータ) (2024-06-04T20:07:58Z) - Text Generation: A Systematic Literature Review of Tasks, Evaluation, and Challenges [7.140449861888235]
このレビューでは、テキスト生成の作業を5つの主要なタスクに分類する。
各タスクについて、関連する特徴、サブタスク、および特定の課題についてレビューする。
近年のテキスト生成論文では,タスクやサブタスクに共通する9つの顕著な課題が報告されている。
論文 参考訳(メタデータ) (2024-05-24T14:38:11Z) - Gen4DS: Workshop on Data Storytelling in an Era of Generative AI [14.595304339780943]
生成AIの急速な開発は、多くの新しい疑問を引き起こした。
生成AIはどのようにデータストーリーの作成を促進するか?
ストーリーテリングにAIを導入する際の落とし穴とリスクは何か?
論文 参考訳(メタデータ) (2024-04-02T04:11:37Z) - A Survey on Long Video Generation: Challenges, Methods, and Prospects [36.58662591921549]
本稿では,近年の長編ビデオ生成の進歩に関する最初の調査について述べる。
それらを2つの重要なパラダイム、すなわち時間的自己回帰の分割と征服にまとめる。
本稿では,長期ビデオ生成研究の進展に欠かせないデータセットと評価指標の包括的概要と分類について述べる。
論文 参考訳(メタデータ) (2024-03-25T03:47:53Z) - On the Essence and Prospect: An Investigation of Alignment Approaches
for Big Models [77.86952307745763]
ビッグデータはAIの分野で画期的なブレークスルーを達成したが、潜在的な懸念を生じさせるかもしれない。
このような懸念に対処するため、これらのモデルを人間の嗜好や価値観に適合させるアライメント技術が導入された。
過去1年間にかなりの進歩があったにもかかわらず、最適アライメント戦略の確立には様々な課題がある。
論文 参考訳(メタデータ) (2024-03-07T04:19:13Z) - End-to-end Task-oriented Dialogue: A Survey of Tasks, Methods, and
Future Directions [65.64674377591852]
エンドツーエンドのタスク指向対話(EToD)は、モジュールトレーニングなしでエンドツーエンドで応答を直接生成できる。
ディープニューラルネットワークの進歩、特に大きな事前訓練モデルの使用の成功は、EToD研究に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2023-11-15T14:50:16Z) - Open-world Story Generation with Structured Knowledge Enhancement: A
Comprehensive Survey [38.56791838401675]
本稿では,既存の手法が構造的知識をストーリー生成にどのように統合するかについて,体系的な分類法を提案する。
知識に富んだストーリー生成の課題について多次元的な洞察を与える。
論文 参考訳(メタデータ) (2022-12-09T02:19:07Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - Survey of Hallucination in Natural Language Generation [69.9926849848132]
近年,シーケンス間深層学習技術の発展により,自然言語生成(NLG)は指数関数的に向上している。
深層学習に基づく生成は意図しないテキストを幻覚させる傾向があるため、システム性能は低下する。
この調査は、NLGにおける幻覚テキストの課題に取り組む研究者の協力活動を促進するのに役立つ。
論文 参考訳(メタデータ) (2022-02-08T03:55:01Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。