第五讲 作业【含答案】 深度学习基础

(1)多选题

下列哪种模型更适合序列建模与预测?

A  循环神经网络RNN

B  卷积神经网络CNN

C  多层感知机

D  长短时记忆网络LSTM

(2)单选题

下列关于循环神经网络RNN Recurrent Neural Networks)说法错误的是

A  隐藏层之间的节点有连接

B  隐藏层之间的节点没有连接

C  隐藏层的输入不仅包括输入层的输出,还包括上一时刻隐藏层的输出

D  网络会对之前时刻的信息进行记忆并应用于当前输出的计算中

(3)多选题

循环神经网络RNN Recurrent Neural Networks)可以处理哪些情况?

A  多对多的同步序列输入输出。如词性标注等

B  多对一的处理,如判断一段文字的情感分类

C  多对多的非同步序列输入和序列输出,如机器翻译中输入英文语句然后翻译为法语形式输出

D  一对多的序列输出。如输入一张图片,生成输出一段文字序列

(4)单选题

下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是

A  LSTM是简化版的RNN

B  LSTM是双向的RNN

C  LSTM是多层的RNN

D  LSTM是RNN的扩展,其通过特殊的结构设计来避免长期依赖问题

(5)单选题

标准RNN (循环神经网络) 无法处理更长的上下文间隔,即长期依赖问题。为此Hochreiter & Schmidhuber (1997) 提出一种特殊的RNN类型,其通过特殊的结构设计来避免长期依赖问题。并被 Alex Graves进行了改良和推广。这种改进的模型是

A  长短期记忆网络LSTM

B  卷积神经网络CNN

C  多层感知机MLP

D  受限玻尔兹曼机

(6)单选题

下列说法错误的是

A  标准RNN隐藏层只有一个状态h,对短期输入敏感,但难以捕捉长期上下文

B  LSTM在隐藏层上增加了一个长期状态c (cell state),用于保存长期状态。C也被称为单元状态或细胞状态

C  LSTM只有长期状态,没有隐藏状态

D  LSTM既有长期状态,也有隐藏状态

(7)多选题

下列关于LSTM说法正确的是

A  LSTM用三个控制门记忆长期状态

B  忘记门控制保存之前的长期状态

C  输入门控制更新长期状态

D  输出门控制是否把长期状态作为当前的LSTM的输出

(8)单选题

 LSTM 通过“门”结构来去除或者增加信息到细胞状态(长期状态)。为了让信息选择性通过,则

A  一般需要一个 sigmoid 神经网络层和一个 pointwise 乘法操作

B  一般需要一个 sigmoid 神经网络层和一个 pointwise 加法操作

C  一般需要一个 tanh 神经网络层和一个 pointwise 乘法操作

D  一般需要一个 tanh 神经网络层和一个 pointwise 加法操作

(9)单选题

下列关于GRUGated Recurrent Unit Cho, et al. 2014 的哪个描述是错误的?

A  GRU混合了长期状态和隐藏状态

B  和LSTM相同的是, GRU也有三个门,即忘记门、更新门和输出门

C  在GRU中,取消了LSTM中的输出门

D  如果reset门为1,而update门为0的话,则GRU完全退化为一个RNN。


(10)多选题

下列关于双向RNN的说法正确的有

A  双向网络假设当前步的输出只与前面的序列有关,而与后面的序列无关

B  双向网络假设当前步的输出与前面的序列无关,而与后面的序列有关

C  双向网络假设当前步的输出既与前面的序列有关,也与后面的序列有关

D  Bidirectional RNNs由两个RNNs上下叠加组成。输出由这两个RNNs的隐藏层的状态决定

获取标准答案请阅读全文

未经允许不得转载!第五讲 作业【含答案】 深度学习基础