机器学习

一、机器学习部分

1 逻辑回归部分
常问,推导要会

推导:https://zhuanlan.zhihu.com/p/34325602

2 SVM部分
常问,推导要会,精简版看下面链接,但是写的不是很详细,最好把cs229讲义好好看看

推导:https://www.zhihu.com/question/21094489 @靠靠靠谱 的回答

3 集成学习
常问,推导要会

bagging方法:看周志华教授的西瓜书

boosting方法:看李航的蓝书,特别的对于GBDT,这篇文章写的很清晰,推导相对简单
这里注意一下,GBDT有两种,一种是残差学习,一种是负梯度代替残差的版本(所以有个G啊),为啥用负梯度近似残差也是常问的,其实这个说法就不对,残差只是在loss用最小二乘时候的一个特例,对求梯度刚好就是,换成其他loss function就不对了,所以应该反过来说,残差学习只是一个特例,负梯度才是通用的

stacking方法:没有特别好的讲解,都看看吧,这篇还行

决策树:cart树是最常问的,详见李航蓝书,从推导到剪枝都要会

4 softmax

这个相对简单,这篇足够了

5 牛顿法和梯度下降

推导以及优劣比较,相对简单,直接看cs229讲义

6 交叉验证

相对简单,看这篇

7 正则方法

正则是一大块,原理方法都要懂,可以参考这些文章 :1 2

8 归一化方法

基础问题,随便那本书都有

9 SVD分解 PCA ICA 白化
这部分我没有被问到,但是应该会问,毕竟是重点,看cs229讲义

二、深度学习部分

1 过拟合的起因,怎么解决

这个没啥好说的,任何讲深度学习的书和课程都有,看哪个都行

2 batch normalization

这个问题下的回答很有价值

3 cnn rnn本质

这篇文章总结的很好

4 梯度弥散/爆炸

没有太好的文章,看看这篇讲resnet的吧

5 激活函数,比较

sigmod tanh relu maxout… 好多,这个随便一搜就一堆,放一个不太切题的文章吧,我偶像何之源奆佬的回答,手动滑稽

6 梯度下降优化

这就很多了,lan大神的花书讲的就很好,博客也可以看这个

7 各种网络结构

这个就太多了,cnn的 rnn的,细分还有很多,多看多熟悉吧

三、传统算法

很奇怪,反而这块很不重视,考的题都很简单
1 阿里在线编程测试
给一个圆,切成n个扇形,涂m种颜色,要求任意两个相邻扇形颜色不同
思路:首先不考虑首尾位置的扇形是否颜色相同,那么总共是 种,

此时两种情况:1)首尾位置扇形颜色相同 2)首尾位置扇形颜色不同,第二种满足题意,不管,第一种可以把首尾颜色相同的扇形合成一个扇形,这样就成了一个相同要求但是规模是的问题,这样递推公式就是 ,

2 腾讯二面 面试官随手问的一个问题
是分水岭算法的一部分,问题可以如下描述:假设有一个单通道图片,背景像素点值为0,中间的物体像素点值为1,求出所有物体像素点到背景的最短距离
思路:dp思想,查看邻点,如果有一个是0,那么距离为1,否则该点的距离是邻点中最短的距离+1,先扫描行,只关心行的不关心列,算出最短距离,再扫描列,只关心列不关心行,更新上一步扫描行后的结果,就是EDT算法,如果是欧式距离还要扫描斜边

3 腾讯二三面之间的笔试题
有n堆石子,第i堆石子的重量是w[i],每次合并两堆石子,并计算分数,比如,两堆石子是x,y,合并后是x+y 分数是xy,一直合并下去,直到只剩一堆石子,求最大累积分数
思路: 一眼看到合并就是哈夫曼树呗,区别就是哈夫曼树分数是x+y,这个是x 一眼看到合并就是哈夫曼树呗,区别就是哈夫曼树分数是x+y,这个是x*y,那么每次取两个最大就行了,优先队列,弹出两个最大的相加计算乘积分数,然后结果扔进队列,直到队列只剩一个元素

四、数字图像处理和模式识别

这部分只被问了这一个问题

1 Sobel、canny 算子 边缘检测算子看这个

五、信息论

信息熵、条件熵、互信息、信息增益 等等的计算,腾讯现场笔试考的,具体的题忘了。。。

六、概率论

1 概率分布的相关计算

2 假设检验

这部分看看本科的课本吧,都有的,概率论的题考的比较活

坚持原创技术分享,您的支持将鼓励我继续创作!