当前位置:主页 > bet36官网体育投注 > 正文
  • [Kirara人才访谈的问题]
  • 日期:2019-04-12   点击:   作者:365bet手机下载   来源:365bet足球盘赔率
滴灌算法面试很难,注意基础知识
采访地点:滴滴楚星 - 北京
Didi算法的访谈员非常耐心,耐心地听取采访者在采访中的经历。
看看全文面试官的问题。
深度初始化网络参数的方法是什么?
初始化的基本思想:分布不会改变。换句话说,它试图初始化权重,以便神经元的每一层的方差不会改变。
基本原则是确保每层的权重矩阵具有大约1的方差,因为初始化参数可能导致梯度消失或爆炸。
1)标准差为0时,为网络中的所有连接权重指定平均合规性0。
正态分布的随机数01
的1的初始值的第二层是卷积层,分配给第四层和第五层,在该层所有神经元都完全连接,在该层中的其他神经元是由零补偿。
在模型训练开始时,可??以有效地加速该初始化方法。
为ReLU输入的所有值均为正值。
2)泽维尔的初始化
3)MSRA初始化/初始化。
因为权重是从高斯分布或均匀分布中采样的,所以权重方差是2 / n。
推导假定启动功能是ReLU。
由于ReLU将少于0个神经元归零,大约一半的神经元被归零。因此,方差加倍以补偿这种缺失的信息。
你问如何减少参数?
回答三个想法,以减少CNN的网络参数。
1)本地连接(本地连接)
每个神经细胞所感知到的全球形象不是必需的,感知的本地部分,那么就只需要本地信息在更高的水平,以获得全球信息集成。
2)份额重量(份额重量)
对于相同的卷积核心,在一个区域中提取的特征也可以应用于其他区域。
在卷积核的情况下,发生权重的分布。
3)分组
分组通常分为maxpooling和mediapooling。
定义分组窗口。最大分组采用窗口中的最大值,平均分组采用窗口中所有数字的平均值。
询问斜坡损失和爆炸以及斜坡解决方案。
A-深度神经网络中的梯度是不稳定的,并且可以在输入层附近的隐藏层中消失或爆炸。
梯度不稳定的原因:根据基于链的推导规则,顶层的梯度是最后一层的梯度的乘积。
当层数太多时,会出现梯度渐变和渐变突发等不稳定的渐变场景。
问:为什么逻辑回归的输入特征通常是离散的而不是连续的?
答案(1)离散特性的增加/减少简单易重复。
(2)方差向量内积的乘法运算快,计算结果便于存储,易于扩展。
(3)对异常数据具有鲁棒性。
(4)当每个财产用N离散时,每个财产具有不同的权重。这对应于非线性的引入。这增强了模型的表现能力并增强了可调节性。
(5)可以克服特征,并且M + N的特征成为M×N的特征,并且引入进一步的非线性以提高表达能力。
(6)在对函数进行离散化之后,它在简化逻辑回归模型中起作用,并降低了泛滥模型的风险。
你想问xgboost如何评估这个功能吗?
在答案训练过程中,通过基尼指数选择分离点特征。选择实体越频繁,该实体的得分就越高。
特征分数可以被视为决策树用于分离的次数。