ResNet学习笔记

本文介绍了ResNet(深度残差神经网络)的理论基础与核心思想。首先解释了深度网络容易出现梯度消失和梯度爆炸的原因,导致深层网络训练效果变差。ResNet通过引入残差学习(Residual learning)的思想,使得网络能够直接学习残差映射,从而避免梯度消失和梯度爆炸的问题,成功训练出152层的深度卷积神经网络,取得了ImageNet等视觉任务中的卓越表现。

conda基本使用方法

本文介绍了如何安装和使用 Anaconda/Miniconda 及其虚拟环境和包管理功能。首先介绍了如何配置国内清华镜像源以加速下载。然后分别介绍了通过 Anaconda Navigator 图形界面和命令行两种方式进行虚拟环境和包的创建、删除、复制、分享等操作。文中还涉及了查看版本、获取帮助等基本命令的使用方法。

邹博ml矩阵和线性代数

这篇文章主要介绍了矩阵的线性代数相关概念和应用,包括奇异值分解SVD、行列式、代数余子式、伴随矩阵、逆矩阵、范德蒙行列式、矩阵乘法等。并以状态转移概率矩阵为例,解释了矩阵在概率模型中的应用。内容系统全面,阐述清晰,很好地总结了矩阵的基本理论和实际应用。

简单写个logictic回归

本文介绍了如何使用Python和NumPy从头开始实现逻辑回归算法。首先列出了逻辑回归的数学公式,然后逐步实现了z函数、sigmoid函数、参数初始化、误差计算和梯度下降优化。可以不依赖任何第三方机器学习库,从零开始训练逻辑回归模型。

简简单单做个房价预测

本文介绍了ROC曲线和AUC的概念及计算方法。ROC曲线描绘了分类模型在不同阈值下的真阳性率和假阳性率,AUC则是ROC曲线下面积的值。AUC可用于评估模型的泛化能力,值越大表示模型性能越好。文章还给出了排序损失与AUC的关系,以及用线性回归对广告数据进行建模的示例代码。

邹博ml回归

本文介绍了线性回归模型的基本原理和求解过程。首先解释了线性回归的基本形式,对于单变量和多变量情况分别给出了表达式。接着引入了中心极限定理,说明为何误差服从高斯分布。然后利用极大似然估计方法推导出最小二乘法的原理,并给出了线性回归参数的解析解。最后讨论了引入复杂度惩罚因子的动机,即对参数的先验分布作出高斯假设。

邹博ml凸优化

本文介绍了凸集和凸函数的基本概念。凸集是指任意两点之间的线段都在该集合内的集合。凸函数是指函数图像上方区域构成的凸集。文章还介绍了仿射集、超平面、半空间、欧式球、椭球、范数球、范数锥、二阶锥和多面体等重要的几何概念,并阐述了它们与凸集的关系。这些概念为后续学习凸优化问题奠定了基础。

爱吃西瓜笔记一:模型评估与选择

机器学习中的模型评估方法主要包括留出法、交叉验证法和自助法。留出法将数据集划分为互斥的训练集和测试集,测试集的误差可近似看作泛化误差。交叉验证法将数据集划分为k个子集,每次用k-1个子集训练,剩余1个子集测试,重复k次取平均值。自助法通过有放回采样生成训练集,未采样数据作为测试集。通过测试集可计算性能度量如错误率、精度等,用于评估模型的泛化能力。模型的过拟合和欠拟合都会降低泛化能力,需要进行模型选择以获得最佳模型。

机器学习基石perceptron-learning-algorithm(pla)

本文介绍了感知器算法(Perceptron)的基本原理和学习算法(PLA)。首先介绍了感知器假设集(Perceptron Hypothesis Set)的概念,并用一个银行发信用卡的例子解释了如何使用加权求和的方式构建线性分类器。然后详细阐述了感知器学习算法(Perceptron Learning Algorithm,PLA)的工作原理和更新方法,并通过一系列图解说明了算法如何逐步修正分类线性达到最终目标。最后提出了两个需要进一步解决的问题:该算法是否一定会停止,以及停止时的分类线是否与真实分界线一致。

cv学习笔记看图说话image-captioning-2

本文介绍了如何使用Python和Keras加载VGG16模型、预处理输入图像、提取图像特征和创建文本标记器。主要包括以下几个步骤:1) 使用PIL库实现load_img_as_np_array函数加载和缩放图像;2) 使用model_from_json和load_weights实现load_vgg16_model函数加载VGG16模型;3) 实现preprocess_input函数预处理输入图像;4) 实现extract_features函数提取图像特征并保存为pkl文件;5) 使用Keras的Tokenizer实现Creat_tokenizer函数创建文本标记器。