搜索
您的当前位置:首页机器学习复习题及答案

机器学习复习题及答案

来源:智榕旅游
 实用文档

一、单选题

1、下列哪位是人工智能之父?( )

A.Marniv Lee Minsky

B.HerbertA.Simon

C.Allen Newell

D.John Clifford Shaw

正确答案:A

2、根据王珏的理解,下列不属于对问题空间W的统计描述是(A.一致性假设

B.划分

C.泛化能力

D.学习能力

正确答案:D

3、下列描述无监督学习错误的是( )。

A.无标签

B.核心是聚类

C.不需要降维

D.具有很好的解释性

正确答案:C

4、下列描述有监督学习错误的是( )。

A.有标签

B.核心是分类

C.所有数据都相互独立分布

D.分类原因不透明

)。

实用文档 正确答案:C

5、下列哪种归纳学习采用符号表示方式?( )

A. 经验归纳学习

B.遗传算法

C.联接学习

D.强化学习

正确答案:A

6、混淆矩阵的假正是指( )。

A.模型预测为正的正样本

B.模型预测为正的负样本

C.模型预测为负的正样本

D.模型预测为负的负样本

正确答案:B

7、混淆矩阵的真负率公式是为( )。

A.TP/(TP+FN)

B.FP/(FP+TN)

C.FN/(TP+FN)

D.TN/(TN+FP)

正确答案:D

8、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是(A.1/4

B.1/2

C.4/7

D.4/6

正确答案:B

)。

实用文档

9、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,精确率是( )。

A.1/4 B.1/2

C.4/7

D.2/3

正确答案:C

10、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,召回率是( A.1/4

B.1/2

C.4/7

D.2/3

正确答案:D

11、混淆矩阵中的TP=16,FP=12,FN=8,TN=4,F1-score是(A.4/13

B.8/13

C.4/7

D.2/3

0.00/2.00

正确答案:B

12、EM算法的E和M指什么?( )

A.Expectation-Maximum

B.Expect-Maximum

C.Extra-Maximum

D.Extra-Max

正确答案:A

13、EM算法的核心思想是?( )

)。)。

实用文档

A.通过不断地求取目标函数的下界的最优值,从而实现最优化的目标。

B.列出优化目标函数,通过方法计算出最优值。

C.列出优化目标函数,通过数值优化方法计算出最优值。

D.列出优化目标函数,通过坐标下降的优化方法计算出最优值。

正确答案:A

14、LDA模型的隐变量Z是( )。

A.每个词对应的主题

B.每篇文档对应的主题

C.每段话对应的主题

D.每个词组对应的主题

正确答案:A

15、LDA模型中的一个主题指( )。

A.词集合上的一个概率分布

B.词组集合上的一个概率分布

C.整个文档上的一个概率分布

D.整个文档集合上的一个概率分布

正确答案:A

16、SVM算法的性能取决于( )。

A.核函数的选择

B.核函数的参数

C.软间隔参数

D.以上所有

正确答案:D

实用文档

17、SVM中的代价参数C表示什么?( )

A.在分类准确性和模型复杂度之间的权衡

B.交叉验证的次数

C.以上都不对

D.用到的核函数

正确答案:A

18、下列有关支持向量机说法不正确的是( )。

A.得到的是局部最优解

B.具有很好的推广能力

C.是凸二次优化问题

D.采用结构风险最小化原理

正确答案:A

19、下列有关核函数不正确的是( )。

A.可以采用cross-va1idalion方法选择最佳核函数

B.满足Mercer条件的函数不一定能作为支持向量机的核函数

C.极大地提高了学习机器的非线性处理能力

D.函数与非线性映射并不是一一对应的关系

正确答案:B

20、一对一法分类器,k个类别需要多少个SVM( )。

A.k(k-1)/2

B.k(k-1)

C.k

D.k!

正确答案:A

实用文档

22、有关聚类分析说法错误的是( )。

A.无须有标记的样本

B.可以用于提取一些基本特征

C.可以解释观察数据的一些内部结构和规律

D.聚类分析一个簇中的数据之间具有高差异性

正确答案:D

23、两个n维向量𝛼(𝑥11,𝑥12,⋯,𝑥1𝑛) 和𝛽(𝑥21,𝑥22,⋯,𝑥2𝑛)之间的欧式距离(euclidean distance)为( )。

A.𝑑12=√(𝛼−𝛽)(𝛼−𝛽)𝑇

B. 𝑑12=∑𝑛𝑘=1|𝑥1𝑘−𝑥2𝑘|

C.𝑑12=max (|𝑥1𝑖−𝑥2𝑖|)

D.cos(𝜃)=(𝛼∙𝛽)/(|𝛼||𝛽|)

正确答案:A

24、闵可夫斯基距离表示为曼哈顿距离时p为( )。

A.1

B.2

C.3

D.4

正确答案:A

25、关于K-means说法不正确的是( )。

A.算法可能终止于局部最优解

B.簇的数目k必须事先给定

C.对噪声和离群点数据敏感

D.适合发现非凸形状的簇

正确答案:D

实用文档

26、k中心点算法每次迭代的计算复杂度是多少?( )

A.𝑂(1)

B.𝑂(𝑘)

C.𝑂(𝑛𝑘)

D.𝑂(𝑘(𝑛−𝑘)2)

正确答案:D

27、下面是矩阵𝑀=(30

01

)的特征值为(A.3

B.2

C.-1

D.0

正确答案:A

28、下图中有多少个团?( )

A.4 B.5

C.6

D.7

正确答案:D

29、下图中有多少个最大团?( )

)。 实用文档

A.0

B.1

C.2

D.3

正确答案:C

30、假设某事件发生的概率为p,则此事件发生的几率为( )。

A.p

B.1-p

C.p/(1-p)

D.(1-p)/p

正确答案:C

31、贝叶斯网络起源于贝叶斯统计学,是以( )为基础的有向图模型,它为处理不确定知识提供了有效的方法。

A.线性代数

B.逻辑学

C.概率论

D.信息论

正确答案:C

32、下列哪项说法不正确。( )

A.人工智能是对人类智能的模拟

实用文档

B.人工神经元是对生物神经元的模拟

C.生物神经信号由树突传递给轴突

D.人工神经元的激活函数可以有多种设计

正确答案:C

33、下列哪项说法正确。( )

A.异或问题中能找到一条直线正确划分所有点

B.随着自变量数目的增多,所有二值函数中线性可分函数的比例逐渐增大

C.如果一个神经网络结构里面有多个神经元,就一定能解决异或问题

D.通常一个神经元包括线性和非线性两种运算

正确答案:D

34、通用近似定理说明( )。

A.多层感知机可以做为函数近似器逼近任意函数

B.只需一个隐藏层的多层感知机就能作为通用函数近似器,因此没必要设计深层网络

C.给定隐藏层神经元,三层感知机可以近似任意从一个有限维空间到另一个有限维空间的Borel 可测函数

D.以上全不对

正确答案:D

35、强化学习基本要素有哪些?( )

A.状态、动作、奖励

B.状态、动作、折扣因子

C.动作、折扣因子、奖励

D.状态、奖励、探索策略

正确答案:A

实用文档

36、不需要建模环境,等待真实反馈再进行接下来的动作,这是哪种强化学习算法。( )

A.Model-free方法

B.Model-based 方法

C.Policy-based 方法

D.Value-based 方法

正确答案:A

37、Q-learning属于哪种算法。( )

A.On-policy算法

B.Off-policy 算法

C.Model-based 算法

D.Value-based 算法

正确答案:B

38、马尔科夫决策过程由哪几个元素来表示( )。

A.状态、动作、转移概率、策略、折扣因子

B.状态、动作、转移概率、折扣因子、回报函数

C.状态、动作、输入、输出、回报函数

D.状态、动作、值、策略、回报函数

正确答案:B

39、关于episode说法错误的是( )。

A.一个episode就是一个从起始状态到结束的经历

B.蒙特卡洛方法需要很少的episode就可以得到准确结果

C.TD方法每次更新不需要使用完整的episode

D.蒙特卡洛的方法需要等到整个episode结束才能更新

实用文档 正确答案:B

40、如果我们的机器(或智能体)每次训练更新的损耗会比较大,我们更倾向于选择哪种算法。( )

A.Sarsa

B.Q-learning

C.两者都可以

D.两者都不行

正确答案:A

41、关于策略梯度的方法说法正确的是( )。

A.只适用于离散动作空间 B.适用于连续动作空间

C.策略梯度的方法与DQN中的目标函数一致

D.策略梯度的方法通过Q值挑选动作

正确答案:B

二、判断题

1、关于EM算法的收敛性,EM算法理论上不能够保证收敛。

正确答案:×

2、关于EM算法的用途,EM算法只适用不完全数据的情形。

正确答案:×

3、Jessen不等式等号成立的条件是:变量为常数。

正确答案:√

4、Jessen不等式E(f(x)) >= f(E(x)), 左边部分大于等于右边部分的条件是函数f是凸函数,如果f是凹函数,左边部分应该是小于等于右边部分。

正确答案:√

实用文档

5、EM算法因为是理论可以保证收敛的,所以肯定能够取得最优解。

正确答案:×

6、EM算法首先猜测每个数据来自哪个高斯分布,然后求取每个高斯的参数,之后再去重新猜测每个数据来自哪个高斯分布,类推进一步迭代,直到收敛,从而得到最后的参数估计值。

正确答案:√

7、EM算法,具有通用的求解形式,因此对任何问题,其求解过程都是一样,都能很容易求得结果。

正确答案:×

8、EM算法通常不需要设置步长,而且收敛速度一般很快。

正确答案:√

9、吉布斯采样是一种通用的采样方法,对于任何概率分布都可以采样出对应的样本。

正确答案:×

10、LDA模型的核心假设是:假设每个文档首先由主题分布表示,然后主题由词概率分布表示,形成文档-主题-词的三级层次。

正确答案:√

11、Gibbs采样是一类通用的采样方法,和M-H采样方法没有任何关系。

正确答案:×

12、关于LDA模型中的K,K的指定,必须考虑数据集合的特点,选择一个较为优化的数值。

正确答案:×

13、LDA模型是一种生成式模型。

正确答案:√

14、主题建模的关键是确定数据集合的主题个数。

正确答案:×

实用文档

15、主题建模本质上是:一种新的文档表示方法,主要是通过主题的分布来表示一个文档。一种数据压缩方法,将文档压缩在更小的空间中。

正确答案:√

16、SVM中的泛化误差代表SVM对新数据的预测准确度。

正确答案:√

17、若参数C(cost parameter)被设为无穷,只要最佳分类超平面存在,它就能将所有数据全部正确分类。

正确答案:√

18、“硬间隔”是指SVM允许分类时出现一定范围的误差。

正确答案:×

19、支持向量是最靠近决策表面的数据点。

正确答案:√

20、数据有噪声,有重复值,不会导致SVM算法性能下降。

正确答案:×

21、分裂层次聚类采用的策略是自底向上。

正确答案:×

22、DBSCAN对参数不敏感。

正确答案:×

23、EM聚类属于软分聚类方法。

正确答案:√

24、k-means算法、EM算法是建立在凸球形的样本空间上的聚类方法。

正确答案:√

25、逻辑斯蒂回归模型是一种回归算法。

正确答案:×

实用文档

26、熵最大时,表示随机变量最不确定,也就是随机变量最随机,对其行为做准确预测最困难。

正确答案:√

27、从最大熵思想出发得出的最大熵模型,采用最大化求解就是在求P(y|x)的对数似然最大化。

正确答案:√

28、GIS算法的收敛速度由计算更新值的步长确定。C值越大,步长越大,收敛速度就越快。

正确答案:×

29、贝叶斯网络具有的条件独立性是结点与其后代结点条件独立。

正确答案:×

30、最大似然估计方法是实例数据不完备情况下的学习方法。

正确答案:×

31、隐马尔可夫模型是一种统计模型,经常用来描述一个含有隐含未知参数的马尔可夫过程。

正确答案:√

32、LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题。

正确答案:√

33、循环神经网络按时间展开后就可以通过反向传播算法训练了。

正确答案:√

34、卷积神经网络通常比全连接神经网络参数少,因此能力更差。

正确答案:×

35、训练算法的目的就是要让模型拟合训练数据。

正确答案:×

实用文档

36、反向传播算法中需要先计算靠近输入层参数的梯度,再计算靠近输出层参数的梯度。

正确答案:×

三、多选题

1、LDA模型在做参数估计时,最常用的方法是( )。

A.Gibbs采样方法

B.变分推断

C.梯度下降

D.Beam search

正确答案:A、B

2、以下关于逻辑斯蒂回归模型的描述正确的是( )。

A.针对分类的可能性进行建模,不仅能预测出类别,还可以得到属于该类别的概率。

B.直接对分类的可能性进行建模,无需事先假设数据分布,这样就避免了假设分布不准确所带来的问题。

C.模型本质仍然是一个线性模型,实现相对简单。

D.逻辑斯蒂回归模型是线性回归模型

正确答案:A、B、C、D

3、条件随机场需要解决的关键问题有( )。

A.特征函数的选择

B.参数估计

C.约束条件

D.模型推断

正确答案:A、B、D

4、基于搜索评分的方法,关键点在于( )。

实用文档

A.确定合适的搜索策略

B.确定搜索优先级

C.确定评分函数

D.确定选择策略

正确答案:A、C

5、基于约束的方法通过统计独立性测试来学习结点间的( A.独立性

B.依赖性

C.完备性

D.相关性

正确答案:A、D

6、在数据不完备时,贝叶斯网络的参数学习方法有( )。A.高斯逼近

B.最大似然估计方法

C.蒙特卡洛方法

D.拉普拉斯近似

正确答案:A、C、D

7、隐马尔可夫模型的三个基本问题是( )。

A.估值问题

B.状态更新

C.寻找状态序列

D.学习模型参数

正确答案:A、C、D

)。

实用文档

8、通常有哪几种训练神经网络的优化方法?( )

A.梯度下降法

B.随机梯度下降法

C.小批量随机梯度下降法

D.集成法

正确答案:A、B、C

9、为什么循环神经网络可以用来实现自动问答,比如对一句自然语言问句给出自然语言回答?( )

A.因为自动问答可以看成是一种序列到序列的转换

B.因为循环神经网要比卷积神经网更强大

C.因为循环神经网络能够处理变长输入

D.因为卷积神经网络不能处理字符输入

正确答案:A、C

10、以下关于蒙特卡洛方法描述正确的是( )。

A.蒙特卡洛方法计算值函数可以采用First-visit方法

B.蒙特卡洛方法方差很大

C.蒙特卡洛方法计算值函数可以采用Every-visit 方法

D.蒙特卡洛方法偏差很大

正确答案:A、B、C

11、在Q-learning中,以下说法正确的是( )。

A.在状态𝑠′时计算的𝑄(𝑠′,𝑎′),对应的动作𝑎′并没有真正执行,只是用来更新当前Q值

B.在状态𝑠′时计算的𝑄(𝑠′,𝑎′),同时也执行了动作𝑎′

C.更新中,Q的真实值为𝑟+𝛾(𝑚𝑎𝑥𝑄(𝑠′,𝑎′))

D.更新中,Q的真实值为𝑄(𝑠,𝑎)

实用文档 正确答案:A、C

12、Sarsa与Q-learning的区别是?( )

A.Sarsa是off-policy,而Q-learning是on-policy

B.Sarsa是on-policy,而Q-learning是off-policy

C.Q-learning在算法更新时,对应的下一个动作并没有执行,而sarsa的下一个动作在这次更新时已经确定了

D.Q-learning是一种保守的算法,sarsa是一种贪婪勇敢的算法

正确答案:B、C

13、Q-learning与Sarsa相同的地方是( )。

A.都使用了𝜀−𝑔𝑟𝑒𝑒𝑑𝑦等策略进行探索

B.都用q-table存储状态动作对

C.更新公式相同

D.两者都可以找到最优的策略

正确答案:A、B

14、关于经验池(experience replay)叙述正确的是( )。

A.为了缩小样本量,可以让样本输入到神经网络中

B.打破样本之间的连续性

C.每次更新时在经验池中按顺序采样样本

D.每次更新时随机采样样本

正确答案:B、D

15、关于DQN说法正确的是( )。

A.网络最开始使用卷积神经网络或全连接网络,目的是为了提取图像特征信息

B.对于atari游戏中,一般将连续4帧图像放在一起作为一个state送到神经网络中

C.网络的输出是动作

实用文档

D.网络的输出是Q值

正确答案:A、B、D

16、关于Double DQN说法正确的是( )。

A.Q值的目标值中的max操作会产生过估计,从而影响找到最佳策略

B.Double DQN可以减小偏差

C.Double DQN的目标函数与DQN的完全相同

D.Double DQN引入了优势函数(advantage function)

正确答案:A、B

17、以下哪种算法属于策略梯度算法。( )

A.Dueling DQN

B.TRPO

C.REINFORCE

D.PPO

正确答案:B、C、D

18、关于A3C算法说法正确的是( )。

A.使用了多个线程,每个线程对应了不同的探索方式

B.需要使用经验池存储样本

C.A3C是off-policy的算法

D.A3C是on-policy的算法

正确答案:A、D

19、以下属于Actor-Critic算法的是( )。

A.DDPG

B.Double DQN

C.A3C

D.Noisy DQN

实用文档 正确答案:A、C

20、对于Actor-Critic算法,说法错误的是( )。

A.Actor-Critic算法结合了policy-based和value-based的方法

B.Critic网络是用来输出动作的

C.Actor网络是用来输出动作的

D.Actor网络是用来评价Critic网络所选动作的好坏的

正确答案:B、D

因篇幅问题不能全部显示,请点此查看更多更全内容

Top