博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
线性回归,多项式回归(P2)
阅读量:7032 次
发布时间:2019-06-28

本文共 931 字,大约阅读时间需要 3 分钟。

回归问题

回归问题包含有线性回归和多项式回归

  简单来说,线性回归就是用多元一次方程拟合数据,多项式回归是用多元多次来拟合方程

  在几何意义上看,线性回归拟合出的是直线,平面。多项式拟合出来的是曲线,曲面。

二,线性回归问题

2.1 线性回归

线性回归问题,是监督学习,输出是连续值。(批梯度下降训练参数+平方误差函数做代价函数)

线性问题的求解另一种方法:正规方程。正规方程把参数看成一个整体进行求导。用矩阵一些性质进行简化结果

 

正规方程:

思路:用矩阵来表示代价函数,求导数为0的时候参数的值,(最后利用矩阵求导结论,求出参数矩阵。)

  1. 用矩阵表示代价函数:
  2. 对代价函数求导化简得到正规方程
  3. 求出Θ。

 

推到过程:

https://blog.csdn.net/melon__/article/details/80589759

https://blog.csdn.net/jshazhang/article/details/78373218

注意:表达式写成矩阵的形式要注意把符号都表示成列向量,还要区分哪些是向量哪些是矩阵,向量和向量的乘积可以互换位置,但是向量和矩阵不行。

 注意矩阵相乘写成表达式的样子是,但是这是一个样本的矩阵表达,m个样本矩阵的表达形式要写成ΘTX,就要用列向量表示样本向量。即:

,其中,写成ΘTX-Y 的形式,或者写成XΘ-Y的形式,这两个表达式里面的X都是样本矩阵,但是是样本矩阵的两种形式,也就是两个X矩阵不一样,前者的X矩阵列向量是一个样本,后者的行向量是一个样本。

2.2 算法需要注意的地方

数据的归一化(特征缩放):为了保证算法下降得更快。

  不管是上神经网络课还是数据挖掘课,老师反复强调了特征的缩放(归一化问题),如果不进行特征的缩放,算法可能就会表现很差,甚至不收敛。特征的缩放方法:Min-Max Scaling和Z-score normalization,

 

学习率的选取:

通常可以考虑尝试些学习率:0.01,0.03,0.1,0.3,1,3,10

三,多项式回归

对于多项式问题:(多元多次模型)

例如:

 

 

转载于:https://www.cnblogs.com/yttas/p/10045314.html

你可能感兴趣的文章
Vue组件之间的传值
查看>>
工作记录--使用FFmpeg将一个视频文件中音频合成到另一个视频中
查看>>
【算法】线性排序
查看>>
【LeetCode每天一题】Binary Tree Inorder Traversal(二叉树的中序遍历)
查看>>
ulimit 命令详解
查看>>
洛谷 P1048 采药
查看>>
Java反射 : Declared的作用 ( 例如 : getMethods和getDeclaredMethods )
查看>>
Feign性能优化注意事项--超时
查看>>
httpd的简单配置(转)
查看>>
yum简介(转)
查看>>
架构漫谈(一):什么是架构?(转)
查看>>
Socket 专题
查看>>
DNS安全浅议、域名A记录(ANAME),MX记录,CNAME记录 专题
查看>>
codeforces 877E Danil and a Part-time Job
查看>>
svn服务器时间与本地时间不同步解决
查看>>
postgres10.2时区研究
查看>>
ie9以下不支持html5 解决方法
查看>>
JAVA异常体系
查看>>
C#'~'按位取反运算符的使用
查看>>
HTTP协议
查看>>