BAT机器学习面试1000题(681~685题)


681题

假设存在一个黑箱算法,其输入为有多个观察(t1, t2, t3,…….. tn)的训练数据和一个新的观察(q1)。该黑箱算法输出 q1 的最近邻 ti 及其对应的类别标签 ci。你可以将这个黑箱算法看作是一个 1-NN(1-最近邻)我们不使用 1-NN 黑箱,而是使用 j-NN(j>1) 算法作为黑箱。为了使用 j-NN 寻找 k-NN,下面哪个选项是正确的?

A、 j 必须是 k 的一个合适的因子

B、j>k

C、不能办到

正确答案是:A

解析:

用 1NN 实现 KNN 的话,每次找到最近邻,然后把这项从数据中取出来,重新运行 1NN 算法,这样重复 K 次,就行了。所以,少找多的话,少一定要是多的因子。

682题

有以下 7 副散点图(从左到右分别编号为 1-7),你需要比较每个散点图的变量之间的皮尔逊相关系数。下面正确的比较顺序是?

1.jpg


1 1<2<3<4

2 1>2>3 > 4

3 7<6<5<4

4 7>6>5>4

A、1 和 3

B、2 和 3

C、1 和 4

D、2 和 4

正确答案是: B

683题

你可以使用不同的标准评估二元分类问题的表现,例如准确率、log-loss、F-Score。让我们假设你使用 log-loss 函数作为评估标准。下面这些选项,哪个/些是对作为评估标准的 log-loss 的正确解释。

2.jpg


1、如果一个分类器对不正确的分类很自信,log-loss 会严重的批评它。

2、对一个特别的观察而言,分类器为正确的类别分配非常小的概率,然后对 log-loss 的相应分布会非常大。

3、log-loss 越低,模型越好。

A、1 和 3

B、2 和 3

C、1 和 2

D、1、2、3

正确答案是:D

684题

假设你被给到以下数据,你想要在给定的两个类别中使用 logistic 回归模型对它进行分类。

3.jpg


你正在使用带有 L1 正则化的 logistic 回归,其中 C 是正则化参数,w1 和 w2 是 x1 和 x2 的系数。

4.jpg


当你把 C 值从 0 增加至非常大的值时,下面哪个选项是正确的?

A、第一个 w2 成了 0,接着 w1 也成了 0

B、第一个 w1 成了 0,接着 w2 也成了 0

C、w1 和 w2 同时成了 0

D、即使在 C 成为大值之后,w1 和 w2 都不能成 0

正确答案是: B

解析:

答案(B):通过观察图像我们发现,即使只使用 x2,我们也能高效执行分类。因此一开始 w1 将成 0;当正则化参数不断增加时,w2 也会越来越接近 0。

685题

假设我们有一个数据集,在一个深度为 6 的决策树的帮助下,它可以使用 100% 的精确度被训练。现在考虑一下两点,并基于这两点选择正确的选项。注意:所有其他超参数是相同的,所有其他因子不受影响。

1 深度为 4 时将有高偏差和低方差

2 深度为 4 时将有低偏差和低方差

A、只有 1

B、只有 2

C、1 和 2

D、没有一个

正确答案是:A

解析:

答案(A):如果在这样的数据中你拟合深度为 4 的决策树,这意味着其更有可能与数据欠拟合。因此,在欠拟合的情况下,你将获得高偏差和低方差。

题目来源:七月在线官网(https://www.julyedu.com/)——面试题库——笔试练习——机器学习
已邀请:

要回复问题请先登录注册

返回顶部