最近正在学习吴恩达机器学习神经网络的反向传播算法,主要通过反向传播来求解对损失函数J(θ)对θ(i,j)的偏导数,以方便进行梯度下降算法中使用。学到这里发现感觉难以能够理解其中的思想,甚至视频也反复看了好多遍,因此也网上找了一些资料进行参考和学习,在这里整理一下子的思路,推导一下设计到的公式。 做一些准备 先放一个神经网络正向传播图,定义一些参数: 参数代表神经网络的层数,参数是当前层数; 参数代特征向量,那么代表第个特征向量; 参数代表传递的权重,那么代表第1层的第1个神经元中第个输入参数的权重; 参数代表输出,那么代表第层的第个神经元的输出,图中这个神经元代表输入的特征量; 参数...

刚学完一部分就迫不及待来做练习看下自己的学习成果了,因为练习题目是英文的有些也看不太懂,所以有些理解错误的地方也请大家能够谅解拉。因此我也是一遍翻译一遍百度了一些资料才陆陆续续写完的,直接开始吧! 模型创建 我们直接推导一下“假设模型”,“代价模型”,“梯度下级模型”的公式吧,因为在后面的练习中牵涉“单变量的线性回归”以及“多变量的线性回归”都需要这三种模型,然后将这些推导公式转换为程序。在后面的题目中直接使用就可以了。 模型的数学推导 假设模型 具体模型如下图所示,其实就是特征矩阵X和向量θ之间的乘积,因为θ0部分的因变量是没有的,只是这边的X矩阵需要补1。 代价模型 下面是代价函...

这几天看完了逻辑回归相关的课程,听着的时候感觉还算顺利,但是在进行课程练习的过程中还是花费了较长的时间,因为我画出的图形和实际出题题目后面的图形有点不太一样,所以来来回回不断地调整参数。后面才发现和学习速度α以及梯度下降次数有很大的关系。 模型实现 具体的模型推到就不说了,具体推到过程在视频和相关的学习资料中已经说的很清楚了,那么直接通过TypeScript进行实现吧 假设函数 分为了三个函数,为了清晰拆分了三个函数,分别为Hypothesis,Sigmoid,Polynomial //实现的是1/(1+e^(-z)) asyncSigmoid(pow:tf.Tensor<tf...

关注 更多

空空如也 ~ ~

粉丝 更多

空空如也 ~ ~