一、单选题
1、下列哪位是人工智能之父?( )
A.Marniv Lee Minsky
B.HerbertA.Simon
C.Allen Newell
D.John Clifford Shaw
正确答案:A
2、根据王珏的理解,下列不属于对问题空间W的统计描述是(A.一致性假设
B.划分
C.泛化能力
D.学习能力
正确答案:D
3、下列描述无监督学习错误的是( )。
A.无标签
B.核心是聚类
C.不需要降维
D.具有很好的解释性
正确答案:C
4、下列描述有监督学习错误的是( )。
A.有标签
B.核心是分类
C.所有数据都相互独立分布
D.分类原因不透明
)。
实用文档 正确答案:C
5、下列哪种归纳学习采用符号表示方式?( )
A. 经验归纳学习
B.遗传算法
C.联接学习
D.强化学习
正确答案:A
6、混淆矩阵的假正是指( )。
A.模型预测为正的正样本
B.模型预测为正的负样本
C.模型预测为负的正样本
D.模型预测为负的负样本
正确答案:B
7、混淆矩阵的真负率公式是为( )。
A.TP/(TP+FN)
B.FP/(FP+TN)
C.FN/(TP+FN)
D.TN/(TN+FP)
正确答案:D
8、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是(A.1/4
B.1/2
C.4/7
D.4/6
正确答案:B
)。
实用文档
9、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,精确率是( )。
A.1/4 B.1/2
C.4/7
D.2/3
正确答案:C
10、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,召回率是( A.1/4
B.1/2
C.4/7
D.2/3
正确答案:D
11、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,F1-score是(A.4/13
B.8/13
C.4/7
D.2/3
0.00/2.00
正确答案:B
12、EM算法的E和M指什么?( )
A.Expectation-Maximum
B.Expect-Maximum
C.Extra-Maximum
D.Extra-Max
正确答案:A
13、EM算法的核心思想是?( )
)。)。
实用文档
A.通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。
B.列出优化目标函数,通过方法计算出最优值。
C.列出优化目标函数,通过数值优化方法计算出最优值。
D.列出优化目标函数,通过坐标下降的优化方法计算出最优值。
正确答案:A
14、LDA模型的隐变量Z是( )。
A.每个词对应的主题
B.每篇文档对应的主题
C.每段话对应的主题
D.每个词组对应的主题
正确答案:A
15、LDA模型中的一个主题指( )。
A.词集合上的一个概率分布
B.词组集合上的一个概率分布
C.整个文档上的一个概率分布
D.整个文档集合上的一个概率分布
正确答案:A
16、SVM算法的性能取决于( )。
A.核函数的选择
B.核函数的参数
C.软间隔参数
D.以上所有
正确答案:D
实用文档
17、SVM中的代价参数C表示什么?( )
A.在分类准确性和模型复杂度之间的权衡
B.交叉验证的次数
C.以上都不对
D.用到的核函数
正确答案:A
18、下列有关支持向量机说法不正确的是( )。
A.得到的是局部最优解
B.具有很好的推广能力
C.是凸二次优化问题
D.采用结构风险最小化原理
正确答案:A
19、下列有关核函数不正确的是( )。
A.可以采用cross-va1idalion方法选择最佳核函数
B.满足Mercer条件的函数不一定能作为支持向量机的核函数
C.极大地提高了学习机器的非线性处理能力
D.函数与非线性映射并不是一一对应的关系
正确答案:B
20、一对一法分类器,k个类别需要多少个SVM( )。
A.k(k-1)/2
B.k(k-1)
C.k
D.k!
正确答案:A
实用文档
22、有关聚类分析说法错误的是( )。
A.无须有标记的样本
B.可以用于提取一些基本特征
C.可以解释观察数据的一些内部结构和规律
D.聚类分析一个簇中的数据之间具有高差异性
正确答案:D
23、两个n维向量𝛼(𝑥11,𝑥12,⋯,𝑥1𝑛) 和𝛽(𝑥21,𝑥22,⋯,𝑥2𝑛)之间的欧式距离(euclidean distance)为( )。
A.𝑑12=√(𝛼−𝛽)(𝛼−𝛽)𝑇
B. 𝑑12=∑𝑛𝑘=1|𝑥1𝑘−𝑥2𝑘|
C.𝑑12=max (|𝑥1𝑖−𝑥2𝑖|)
D.cos(𝜃)=(𝛼∙𝛽)/(|𝛼||𝛽|)
正确答案:A
24、闵可夫斯基距离表示为曼哈顿距离时p为( )。
A.1
B.2
C.3
D.4
正确答案:A
25、关于K-means说法不正确的是( )。
A.算法可能终止于局部最优解
B.簇的数目k必须事先给定
C.对噪声和离群点数据敏感
D.适合发现非凸形状的簇
正确答案:D
实用文档
26、k中心点算法每次迭代的计算复杂度是多少?( )
A.𝑂(1)
B.𝑂(𝑘)
C.𝑂(𝑛𝑘)
D.𝑂(𝑘(𝑛−𝑘)2)
正确答案:D
27、下面是矩阵𝑀=(30
01
)的特征值为(A.3
B.2
C.-1
D.0
正确答案:A
28、下图中有多少个团?( )
A.4 B.5
C.6
D.7
正确答案:D
29、下图中有多少个最大团?( )
)。 实用文档
A.0
B.1
C.2
D.3
正确答案:C
30、假设某事件发生的概率为p,则此事件发生的几率为( )。
A.p
B.1-p
C.p/(1-p)
D.(1-p)/p
正确答案:C
31、贝叶斯网络起源于贝叶斯统计学,是以( )为基础的有向图模型,它为处理不确定知识提供了有效的方法。
A.线性代数
B.逻辑学
C.概率论
D.信息论
正确答案:C
32、下列哪项说法不正确。( )
A.人工智能是对人类智能的模拟
实用文档
B.人工神经元是对生物神经元的模拟
C.生物神经信号由树突传递给轴突
D.人工神经元的激活函数可以有多种设计
正确答案:C
33、下列哪项说法正确。( )
A.异或问题中能找到一条直线正确划分所有点
B.随着自变量数目的增多,所有二值函数中线性可分函数的比例逐渐增大
C.如果一个神经网络结构里面有多个神经元,就一定能解决异或问题
D.通常一个神经元包括线性和非线性两种运算
正确答案:D
34、通用近似定理说明( )。
A.多层感知机可以做为函数近似器逼近任意函数
B.只需一个隐藏层的多层感知机就能作为通用函数近似器,因此没必要设计深层网络
C.给定隐藏层神经元,三层感知机可以近似任意从一个有限维空间到另一个有限维空间的Borel 可测函数
D.以上全不对
正确答案:D
35、强化学习基本要素有哪些?( )
A.状态、动作、奖励
B.状态、动作、折扣因子
C.动作、折扣因子、奖励
D.状态、奖励、探索策略
正确答案:A
实用文档
36、不需要建模环境,等待真实反馈再进行接下来的动作,这是哪种强化学习算法。( )
A.Model-free方法
B.Model-based 方法
C.Policy-based 方法
D.Value-based 方法
正确答案:A
37、Q-learning属于哪种算法。( )
A.On-policy算法
B.Off-policy 算法
C.Model-based 算法
D.Value-based 算法
正确答案:B
38、马尔科夫决策过程由哪几个元素来表示( )。
A.状态、动作、转移概率、策略、折扣因子
B.状态、动作、转移概率、折扣因子、回报函数
C.状态、动作、输入、输出、回报函数
D.状态、动作、值、策略、回报函数
正确答案:B
39、关于episode说法错误的是( )。
A.一个episode就是一个从起始状态到结束的经历
B.蒙特卡洛方法需要很少的episode就可以得到准确结果
C.TD方法每次更新不需要使用完整的episode
D.蒙特卡洛的方法需要等到整个episode结束才能更新
实用文档 正确答案:B
40、如果我们的机器(或智能体)每次训练更新的损耗会比较大,我们更倾向于选择哪种算法。( )
A.Sarsa
B.Q-learning
C.两者都可以
D.两者都不行
正确答案:A
41、关于策略梯度的方法说法正确的是( )。
A.只适用于离散动作空间 B.适用于连续动作空间
C.策略梯度的方法与DQN中的目标函数一致
D.策略梯度的方法通过Q值挑选动作
正确答案:B
二、判断题
1、关于EM算法的收敛性,EM算法理论上不能够保证收敛。
正确答案:×
2、关于EM算法的用途,EM算法只适用不完全数据的情形。
正确答案:×
3、Jessen不等式等号成立的条件是:变量为常数。
正确答案:√
4、Jessen不等式E(f(x)) >= f(E(x)), 左边部分大于等于右边部分的条件是函数f是凸函数,如果f是凹函数,左边部分应该是小于等于右边部分。
正确答案:√
实用文档
5、EM算法因为是理论可以保证收敛的,所以肯定能够取得最优解。
正确答案:×
6、EM算法首先猜测每个数据来自哪个高斯分布,然后求取每个高斯的参数,之后再去重新猜测每个数据来自哪个高斯分布,类推进一步迭代,直到收敛,从而得到最后的参数估计值。
正确答案:√
7、EM算法,具有通用的求解形式,因此对任何问题,其求解过程都是一样,都能很容易求得结果。
正确答案:×
8、EM算法通常不需要设置步长,而且收敛速度一般很快。
正确答案:√
9、吉布斯采样是一种通用的采样方法,对于任何概率分布都可以采样出对应的样本。
正确答案:×
10、LDA模型的核心假设是:假设每个文档首先由主题分布表示,然后主题由词概率分布表示,形成文档-主题-词的三级层次。
正确答案:√
11、Gibbs采样是一类通用的采样方法,和M-H采样方法没有任何关系。
正确答案:×
12、关于LDA模型中的K,K的指定,必须考虑数据集合的特点,选择一个较为优化的数值。
正确答案:×
13、LDA模型是一种生成式模型。
正确答案:√
14、主题建模的关键是确定数据集合的主题个数。
正确答案:×
实用文档
15、主题建模本质上是:一种新的文档表示方法,主要是通过主题的分布来表示一个文档。一种数据压缩方法,将文档压缩在更小的空间中。
正确答案:√
16、SVM中的泛化误差代表SVM对新数据的预测准确度。
正确答案:√
17、若参数C(cost parameter)被设为无穷,只要最佳分类超平面存在,它就能将所有数据全部正确分类。
正确答案:√
18、“硬间隔”是指SVM允许分类时出现一定范围的误差。
正确答案:×
19、支持向量是最靠近决策表面的数据点。
正确答案:√
20、数据有噪声,有重复值,不会导致SVM算法性能下降。
正确答案:×
21、分裂层次聚类采用的策略是自底向上。
正确答案:×
22、DBSCAN对参数不敏感。
正确答案:×
23、EM聚类属于软分聚类方法。
正确答案:√
24、k-means算法、EM算法是建立在凸球形的样本空间上的聚类方法。
正确答案:√
25、逻辑斯蒂回归模型是一种回归算法。
正确答案:×
实用文档
26、熵最大时,表示随机变量最不确定,也就是随机变量最随机,对其行为做准确预测最困难。
正确答案:√
27、从最大熵思想出发得出的最大熵模型,采用最大化求解就是在求P(y|x)的对数似然最大化。
正确答案:√
28、GIS算法的收敛速度由计算更新值的步长确定。C值越大,步长越大,收敛速度就越快。
正确答案:×
29、贝叶斯网络具有的条件独立性是结点与其后代结点条件独立。
正确答案:×
30、最大似然估计方法是实例数据不完备情况下的学习方法。
正确答案:×
31、隐马尔可夫模型是一种统计模型,经常用来描述一个含有隐含未知参数的马尔可夫过程。
正确答案:√
32、LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题。
正确答案:√
33、循环神经网络按时间展开后就可以通过反向传播算法训练了。
正确答案:√
34、卷积神经网络通常比全连接神经网络参数少,因此能力更差。
正确答案:×
35、训练算法的目的就是要让模型拟合训练数据。
正确答案:×
实用文档
36、反向传播算法中需要先计算靠近输入层参数的梯度,再计算靠近输出层参数的梯度。
正确答案:×
三、多选题
1、LDA模型在做参数估计时,最常用的方法是( )。
A.Gibbs采样方法
B.变分推断
C.梯度下降
D.Beam search
正确答案:A、B
2、以下关于逻辑斯蒂回归模型的描述正确的是( )。
A.针对分类的可能性进行建模,不仅能预测出类别,还可以得到属于该类别的概率。
B.直接对分类的可能性进行建模,无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题。
C.模型本质仍然是一个线性模型,实现相对简单。
D.逻辑斯蒂回归模型是线性回归模型
正确答案:A、B、C、D
3、条件随机场需要解决的关键问题有( )。
A.特征函数的选择
B.参数估计
C.约束条件
D.模型推断
正确答案:A、B、D
4、基于搜索评分的方法,关键点在于( )。
实用文档
A.确定合适的搜索策略
B.确定搜索优先级
C.确定评分函数
D.确定选择策略
正确答案:A、C
5、基于约束的方法通过统计独立性测试来学习结点间的( A.独立性
B.依赖性
C.完备性
D.相关性
正确答案:A、D
6、在数据不完备时,贝叶斯网络的参数学习方法有( )。A.高斯逼近
B.最大似然估计方法
C.蒙特卡洛方法
D.拉普拉斯近似
正确答案:A、C、D
7、隐马尔可夫模型的三个基本问题是( )。
A.估值问题
B.状态更新
C.寻找状态序列
D.学习模型参数
正确答案:A、C、D
)。
实用文档
8、通常有哪几种训练神经网络的优化方法?( )
A.梯度下降法
B.随机梯度下降法
C.小批量随机梯度下降法
D.集成法
正确答案:A、B、C
9、为什么循环神经网络可以用来实现自动问答,比如对一句自然语言问句给出自然语言回答?( )
A.因为自动问答可以看成是一种序列到序列的转换
B.因为循环神经网要比卷积神经网更强大
C.因为循环神经网络能够处理变长输入
D.因为卷积神经网络不能处理字符输入
正确答案:A、C
10、以下关于蒙特卡洛方法描述正确的是( )。
A.蒙特卡洛方法计算值函数可以采用First-visit方法
B.蒙特卡洛方法方差很大
C.蒙特卡洛方法计算值函数可以采用Every-visit 方法
D.蒙特卡洛方法偏差很大
正确答案:A、B、C
11、在Q-learning中,以下说法正确的是( )。
A.在状态𝑠′时计算的𝑄(𝑠′,𝑎′),对应的动作𝑎′并没有真正执行,只是用来更新当前Q值
B.在状态𝑠′时计算的𝑄(𝑠′,𝑎′),同时也执行了动作𝑎′
C.更新中,Q的真实值为𝑟+𝛾(𝑚𝑎𝑥𝑄(𝑠′,𝑎′))
D.更新中,Q的真实值为𝑄(𝑠,𝑎)
实用文档 正确答案:A、C
12、Sarsa与Q-learning的区别是?( )
A.Sarsa是off-policy,而Q-learning是on-policy
B.Sarsa是on-policy,而Q-learning是off-policy
C.Q-learning在算法更新时,对应的下一个动作并没有执行,而sarsa的下一个动作在这次更新时已经确定了
D.Q-learning是一种保守的算法,sarsa是一种贪婪勇敢的算法
正确答案:B、C
13、Q-learning与Sarsa相同的地方是( )。
A.都使用了𝜀−𝑔𝑟𝑒𝑒𝑑𝑦等策略进行探索
B.都用q-table存储状态动作对
C.更新公式相同
D.两者都可以找到最优的策略
正确答案:A、B
14、关于经验池(experience replay)叙述正确的是( )。
A.为了缩小样本量,可以让样本输入到神经网络中
B.打破样本之间的连续性
C.每次更新时在经验池中按顺序采样样本
D.每次更新时随机采样样本
正确答案:B、D
15、关于DQN说法正确的是( )。
A.网络最开始使用卷积神经网络或全连接网络,目的是为了提取图像特征信息
B.对于atari游戏中,一般将连续4帧图像放在一起作为一个state送到神经网络中
C.网络的输出是动作
实用文档
D.网络的输出是Q值
正确答案:A、B、D
16、关于Double DQN说法正确的是( )。
A.Q值的目标值中的max操作会产生过估计,从而影响找到最佳策略
B.Double DQN可以减小偏差
C.Double DQN的目标函数与DQN的完全相同
D.Double DQN引入了优势函数(advantage function)
正确答案:A、B
17、以下哪种算法属于策略梯度算法。( )
A.Dueling DQN
B.TRPO
C.REINFORCE
D.PPO
正确答案:B、C、D
18、关于A3C算法说法正确的是( )。
A.使用了多个线程,每个线程对应了不同的探索方式
B.需要使用经验池存储样本
C.A3C是off-policy的算法
D.A3C是on-policy的算法
正确答案:A、D
19、以下属于Actor-Critic算法的是( )。
A.DDPG
B.Double DQN
C.A3C
D.Noisy DQN
实用文档 正确答案:A、C
20、对于Actor-Critic算法,说法错误的是( )。
A.Actor-Critic算法结合了policy-based和value-based的方法
B.Critic网络是用来输出动作的
C.Actor网络是用来输出动作的
D.Actor网络是用来评价Critic网络所选动作的好坏的
正确答案:B、D
因篇幅问题不能全部显示,请点此查看更多更全内容