BAT机器学习面试1000题(596~600题)


596、假设使用维数降低作为预处理技术,使用PCA将数据减少到k维度。然后使用这些PCA预测作为特征,以下哪个声明是正确的?

A、更高的“k”意味着更正则化

B、更高的“k”意味着较少的正则化

C、都不对

正确答案是: B

解析:

较高的k导致较少的平滑,因此能够保留更多的数据特征,从而减少正则化。

597、在相同的机器上运行并设置最小的计算能力,以下哪种情况下t-SNE比PCA降维效果更好?

A、具有1百万项300个特征的数据集

B、具有100000项310个特征的数据集

C、具有10,000项8个特征的数据集

D、具有10,000项200个特征的数据集

正确答案是:C

解析:

t-SNE具有二次时空复杂度。

598、对于t-SNE代价函数,以下陈述中的哪一个正确?

A、本质上是不对称的

B、本质上是对称的

C、与SNE的代价函数相同

正确答案是: B

解析:

SNE代价函数是不对称的,这使得使用梯度下降难以收敛。对称是SNE和t-SNE代价函数之间的主要区别之一。

599、想像正在处理文本数据,使用单词嵌入(Word2vec)表示使用的单词。在单词嵌入中,最终会有1000维。现在想减小这个高维数据的维度,这样相似的词应该在最邻近的空间中具有相似的含义。在这种情况下,您最有可能选择以下哪种算法?

A、t-SNE

B、PCA

C、LDA

D、都不是

正确答案是:A

解析:

t-SNE代表t分布随机相邻嵌入,它考虑最近的邻居来减少数据。

600、判断:t-SNE学习非参数映射。

A、真

B、假

正确答案是:A

解析:

t-SNE学习非参数映射,这意味着它不会学习将数据从输入空间映射到地图的显式函数。
已邀请:

要回复问题请先登录注册

返回顶部