我的NLP面试经历及总结:要把tfidf、word2vec、注意力机制、transformer都熟悉掌握


我是机器学习集训营第七期的学员。
参加集训营的时候是一名打算找工作的国企换岗人员,之前在国企待得比较不自在,因为本身学的通信,后来在航空系统里面做机载设备,所以和本身专业也不是特别对口,加上体制的原因吧,就出来了。在机器学习方面之前都是自己看看书和视频,但是没有实际操作过。
我开始接触机器学习的时候就看过July的一些文章,讲得比较通俗易懂。以前听别的同学说过,可以报培训班来进行再充电和换岗,所以为了找个好工作就报名了。 因为报名晚了点,所以学习的时间有四个月,从二月开始到五月底结束。因为我是社招,所以虽然过了春招,倒是不影响应聘的时间,一般来说,各个企业的社招都是全年在找人。

基本上五月份课程结束后,加上办理离职手续的事情,六月份调整了一个月,七月一号正式投简历开始找工作,拿到了几个offer,因为我之前在国企,所以虽然对体制不太满意,不过还是对大公司以及国企比较有感觉吧,所以面的基本也都是大公司和国企,所以面的公司也不多,大概有五家吧,因为总共只有两周的面试时间,7月的十九号我就已经入职了,虽然也是在国企,但是岗位是NLP的岗位,而且入职就开始干活了,现在其实挺汗颜的,因为还要经常补一补CRF和viterbi算法相关的知识以及python网络编程的一些知识。

前两天一个简单的测试要内部上线,封装接口和Docker打包还花了一个周六加班研究了一整天。而且真心感觉培训班学的还是不够的,因为实际项目里发现NLP的机器学习一些算法是需要自己实现的,这个文章我是周天的下午写的,上午的时候还在看Bi-LSTM+CRF实现NER的CRF部分,感觉之前学的还是不扎实,不过现在我们部门气氛挺好的,因为也是国企新成立的做人工智能的部门,而且有时候发现没有遇见的问题在集训营的群里问老师,一般也会很快有答复,所以虽然感觉不断的学习也挺有压力的,但是能做自己喜欢的事情还是挺开心的。

首先,集训营老师给的意见是自己确定好一两个方面,最好定两个简历模板,然后不断优化。譬如我当时就一心想去搞nlp,所以就只做了一份简历。大家不要和我学,哈哈哈。 首先不管我们是要走cv、nlp、推荐什么方向的,面试的时候都是基于简历上我们自己写的。不过既然都选择了NLP或者CV等等,我们都必须熟悉且能手推出LR、adaboost、xgboost、svm这些经典的机器学习算法,这是最基础的了。下面我就介绍一下我面试的公司的一些情况

中兴:
主要谈了谈集训营的NLP项目,问的都是NLP基础问题,词向量、RNN和NER,比较简单吧,可能也是因为简历上写的就是这些。

某附属医院的人工智能:
首先说下结果,这个面的电话面就挂了。然后说下总结吧,当时对这个期望特别高,因为这个是大学附属医院的人工智能岗位,带头人是大学的一位人工智能方向的海归博士,所以特别期待能够拿到这个岗的offer。但是也和我准备有关系,电话面的时间是晚上的八点半,我等到八点五十的时候见还没有电话以为要等第二天白天了,所以晚上九点钟电话打来的时候我正在看手机,感觉不是非常在状态吧,然后因为负责电话面就是那个海归博士,所以面的好细,先是问了奇异值分解,然后有问了numpy里面的矩阵相乘使用*和使用dot的区别以及numpy里面的矩阵初始化有哪些方法,接着问了如果做NLP的translation时如果训练集特别少怎么办,就是翻译的语句对只有10000条时有哪些方法可以提高神经网络模型翻译的准确率,最后还问了有没有自己设计过深度学习的模型。上面的几个问题有的基础的我答出来了,后面两个当时真的没有思路,后来面试完了我看了一下才发现《百面机器学习》对迁移学习也是有介绍的,只怪自己没有好好看书呀。

国企一
一面的时候问了精确率、召回率和F1值,然后简单聊了聊集训营的NLP项目。
二面的时候问了RNN网络的结构和初始化以及CNN网络的卷积体现在哪些方面。
最后就简单聊了聊待遇和加班情况之类的。

国企二
上来就问我HMM模型的三类问题都是哪三类,LR和SVM的区别,然后就是问了我NLP的项目相关内容,接着又问了如果想要提高分词的准确率有哪些方法,以及了不了解知识图谱(当时是真不了解,可也只能硬着头皮聊了两句),最后问了些python的相关问题。

总结
传统机器学习一定要掌握:svm、lr、决策树、随机森林、GBDT、xgboost和朴素贝叶斯这些基础知识,最好能手推。
深度学习基本都是:CNN以及卷积的意义、RNN以及RNN的初始化、LSTM、常用激活函数(tanh、relu等)这些原理。
自然语言处理方面:一定要把tfidf、word2vec、注意力机制、transformer都熟悉掌握。最好自己去运行几次,最后就是祝大家找到称心的工作。
已邀请:

要回复问题请先登录注册