【机器学习】吴恩达机器学习系列笔记( 二 )


在高方差问题中 , 使用更多的数据训练对改进算法是有帮助的;
4. 非线性分类器(神经网络)5. 其他 (1)准确率和召回率
6. SVM(支持向量机)
把逻辑回归的cost 改成了折线函数 。
相比于逻辑回归算法 , SVM还在中间保持了一个安全距离;
代表SVM获得的决策边界可能会更稳健 , 鲁棒性会更好;
核函数:利用核函数的支持向量机算法
针对非线性分类问题;
为了使得支持向量机的决策边界是非线性的;
相似度量的函数就被称作核函数;
在下面的例子中用的是高斯核函数:
如果想要确定θ的值 , 就直接将损失函数定为svm的损失函数进行训练 , 如下图所示:
无监督学习 1. 聚类算法:K-means聚类
(3)移动聚类中心
将两个聚类中心 , 移动到同色点的均值处 , 之后再进行簇分配
等价于选择u值来最小化代价函数;
2. 降维算法 (1)数据压缩
不仅仅压缩数据占用更少的内存 , 同时还能加速算法的运行 。
(2)数据可视化 (3)PCA()主成分分析算法
既可以用作数据压缩问题 , 同样是一个降维方法;
对于降维问题来说 , 目前最流行的算法就是PCA算法;
模型压缩:降低储存数据的内存或者硬盘空间模型压缩:加入PCA部分后可以加速一些学习算法降维后方便可视化 3.异常检测问题 (1)高斯分布( )也叫正态分布( ) (2)异常检测算法
(3)多元高斯分布
4. 推荐系统 (1)预测电影推荐的例子
【【机器学习】吴恩达机器学习系列笔记】(2)基于内容的推荐算法
因为我们已经拥有对于各个电影描述的特征了;
基本等价于线性回归算法的优化函数:
(3)协同过滤算法( )(3.1)向量化:低秩矩阵分解(low rank)大数据集学习机器学习实例:photo OCR(照片光字字符识别) text
滑动窗口法 r