BAT机器学习面试1000题系列(第181~185题)


上期思考题及参考解析
180.以下哪个属于线性分类器最佳准则?
  A.感知准则函数
  B.贝叶斯分类
  C.支持向量机
  D.Fisher准则

  正确答案:ACD
  @刘炫320,本题题目及解析来源:http://blog.csdn.net/column/details/16442.html
  线性分类器有三大类:感知器准则函数、SVM、Fisher准则,而贝叶斯分类器不是线性分类器。
  感知准则函数 :准则函数以使错分类样本到分界面距离之和最小为原则。其优点是通过错分类样本提供的信息对分类器函数进行修正,这种准则是人工神经元网络多层感知器的基础。
  支持向量机 :基本思想是在两类线性可分条件下,所设计的分类器界面使两类之间的间隔为最大,它的基本出发点是使期望泛化风险尽可能小。(使用核函数可解决非线性问题)
  Fisher 准则 :更广泛的称呼是线性判别分析(LDA),将所有样本投影到一条远点出发的直线,使得同类样本距离尽可能小,不同类样本距离尽可能大,具体为最大化“广义瑞利商”。
  根据两类样本一般类内密集,类间分离的特点,寻找线性分类器最佳的法线向量方向,使两类样本在该方向上的投影满足类内尽可能密集,类间尽可能分开。这种度量通过类内离散矩阵 Sw 和类间离散矩阵 Sb 实现。

——————————————我是分割线——————————————

181.基于二次准则函数的H-K算法较之于感知器算法的优点是()?
  A.计算量小
  B.可以判别问题是否线性可分
  C.其解完全适用于非线性可分的情况
  D.其解的适应性更好

  正确答案:BD
  @刘炫320,本题题目及解析来源:http://blog.csdn.net/column/details/16442.html
  HK算法思想很朴实,就是在最小均方误差准则下求得权矢量.
  他相对于感知器算法的优点在于,他适用于线性可分和非线性可分得情况,对于线性可分的情况,给出最优权矢量,对于非线性可分得情况,能够判别出来,以退出迭代过程.

182.以下说法中正确的是()?
  A.SVM对噪声(如来自其他分布的噪声样本)鲁棒
  B.在AdaBoost算法中,所有被分错的样本的权重更新比例相同
  C.Boosting和Bagging都是组合多个分类器投票的方法,二者都是根据单个分类器的正确率决定其权重
  D.给定n个数据点,如果其中一半用于训练,一般用于测试,则训练误差和测试误差之间的差别会随着n的增加而减少

  正确答案:BD
  @刘炫320,本题题目及解析来源:http://blog.csdn.net/column/details/16442.html
  A、SVM对噪声(如来自其他分布的噪声样本)鲁棒
  SVM本身对噪声具有一定的鲁棒性,但实验证明,是当噪声率低于一定水平的噪声对SVM没有太大影响,但随着噪声率的不断增加,分类器的识别率会降低。
  B、在AdaBoost算法中所有被分错的样本的权重更新比例相同
  AdaBoost算法中不同的训练集是通过调整每个样本对应的权重来实现的。开始时,每个样本对应的权重是相同的,即其中n为样本个数,在此样本分布下训练出一弱分类器。对于分类错误的样本,加大其对应的权重;而对于分类正确的样本,降低其权重,这样分错的样本就被凸显出来,从而得到一个新的样本分布。在新的样本分布下,再次对样本进行训练,得到弱分类器。以此类推,将所有的弱分类器重叠加起来,得到强分类器。
  C、Boost和Bagging都是组合多个分类器投票的方法,二者均是根据单个分类器的正确率决定其权重。
  Bagging与Boosting的区别:
  取样方式不同。
  Bagging采用均匀取样,而Boosting根据错误率取样。
  Bagging的各个预测函数没有权重,而Boosting是有权重的。
  Bagging的各个预测函数可以并行生成,而Boosing的各个预测函数只能顺序生成。

183.输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,输出特征图大小为():
  A. 95
  B. 96
  C. 97
  D. 98

  正确答案:C
  @刘炫320,本题题目及解析来源:http://blog.csdn.net/column/details/16442.html
  首先我们应该知道卷积或者池化后大小的计算公式:
out_height=((input_height - filter_height + padding_top+padding_bottom)/stride_height )+1
out_width=((input_width - filter_width + padding_left+padding_right)/stride_width )+1
  其中,padding指的是向外扩展的边缘大小,而stride则是步长,即每次移动的长度。
  这样一来就容易多了,首先长宽一般大,所以我们只需要计算一个维度即可,这样,经过第一次卷积后的大小为: (200-5+2)/2+1,取99;经过第一次池化后的大小为:(99-3)/1+1 为97;经过第二次卷积后的大小为: (97-3+2)/1+1 为97

184.在spss的基础分析模块中,作用是“以行列表的形式揭示数据之间的关系”的是( )
  A. 数据描述
  B. 相关
  C. 交叉表
  D. 多重相应

  正确答案:C

——————————————我是分割线——————————————

本期思考题:
185.一监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别4种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求:()。
  A. 二分类问题
  B. 多分类问题
  C. 层次聚类问题
  D. k-中心点聚类问题
  E. 回归问题
  F. 结构分析问题

在评论区留言,一起交流探讨,让更多小伙伴受益。
参考答案在明天公众号上公布,敬请关注!
关注公号:julyedulab,第一时间获取「BAT机器学习面试1000题系列」最新题目哦~

往期题目:
【BAT机器学习面试题】前100题汇总及勘误(上)
【BAT机器学习面试题】前100题汇总及勘误(中)
【BAT机器学习面试题】前100题汇总及勘误(下)
BAT机器学习面试1000题系列(第101~105题)
BAT机器学习面试1000题系列(第106~110题)
BAT机器学习面试1000题系列(第111~115题)
BAT机器学习面试1000题系列(第116~120题)
BAT机器学习面试1000题系列(第121~125题)
BAT机器学习面试1000题系列(第126~130题)
BAT机器学习面试1000题系列(第131~135题)
BAT机器学习面试1000题系列(第136~140题)
BAT机器学习面试1000题系列(第141~145题)
BAT机器学习面试1000题系列(第146~150题)
BAT机器学习面试1000题系列(第151~155题)
BAT机器学习面试1000题系列(第156~160题)
BAT机器学习面试1000题系列(第161~165题)
BAT机器学习面试1000题系列(第166~170题)
BAT机器学习面试1000题系列(第171~175题)
BAT机器学习面试1000题系列(第176~180题)
已邀请:

要回复问题请先登录注册

返回顶部