文章浏览阅读932次。目录1、Tensorflow框架简介2、安装Tensorflow3、核心概念4、代码实例和详细解释5、拓扑图之有向无环图DAG6、其他深度学习框架详细描述6.1 Caffe框架:6.2 Theano框架:6.3 Keras框架:1、Tensorflow框架简介Tensorflow由Google......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读1k次,点赞2次,收藏3次。第十七节逻辑回归之交叉熵损失函数概念(2)上一节中我们讲解了逻辑回归是做分类的原因,本节的话我们讲解逻辑回归的损失函数-交叉熵损失函数。逻辑回归,是要做分类的,最重要的是......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读985次。第十八节逻辑回归之交叉熵损失函数梯度求解过程(2)上一节中,我们讲解了交叉熵损失函数的概念,目标是要找到使得损失函数最小的那组θ,也就是l(θ)最大,即预测出来的结果在训练集上全部正确的概率......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读1.3k次,点赞2次,收藏5次。第十六节逻辑回归做分类的原因(1)从本节开始,我们讲解一个新的算法,逻辑回归。多元性回归是做回归的,它真的是回归这个领域里面的一个算法。对于有监督机器学习来说,除了做回......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读1.1w次,点赞28次,收藏36次。一、前述 一直以来都想用很简介或者很普通的方式聊下各个算法的前龙后脉,让更多的人都能看懂算法的过程。查看了网上很多博客,不是写的太笼统就是抄来抄去,根本没有阅读的欲......
2024-01-24 04:39 阅读 阅读全文文章浏览阅读618次。目录1、前述2、向量空间的梯度下降:3、函数空间的梯度下降:4、梯度下降的流程:5、在向量空间的梯度下降和在函数空间的梯度下降有什么区别呢?6、我们看下GBDT的流程图解:7、我们看一个GBDT的例子:......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读1.0k次,点赞4次,收藏5次。先看一个传统方法手动实现线性回归和MSE损失函数的方案:import tensorflow as tfimport numpy as npfrom sklearn.datasets import fetch_california_housingfrom sklearn.preprocessing import StandardScaler#多元线性回归是一......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读1k次。神经网络有着灵活性,同时也是算法的主要缺点:需要有许多超参数需要去调节。比如隐藏层及神经元个数,轮次,每一轮次给多少数据,学习率,对于神经网来说,有很多超参数可以调节。层数,每层的神......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读676次。第二十七节决策树系列之预剪枝和后减枝(6)上一节中我们讲解了决策树中的回归树的问题Cart树,我们再来回顾下,决策树的四个问题。1、它分几支。2、它怎么判断分裂条件。有Gini系数,MSE等。3、它什么时......
2024-01-24 04:40 阅读 阅读全文文章浏览阅读1.1k次,点赞2次,收藏4次。本节的话我们开始讲解sklearn里面的实战:先看下代码:from sklearn.neural_network import MLPClassifierX = [[0, 0], [1, 1]]y = [0, 1]clf = MLPClassifier(solver='sgd', alpha=1e-5, activation='logistic', ..._from sklea......
2024-01-24 04:40 阅读 阅读全文