Chapter-2

2-1模型描述

单变量线性回归

2-2代价函数

最小化方差。代价函数=$min\sum_{i=1}^{n}(h_\theta (x^i)-y^i)$

2-3,2-4代价函数

由图可以看出$\theta_1$取1时代价函数取得最小值
二元代价函数图

2-5梯度下降

常规算法,不仅用在线性回归,还用在很多机器学习中

一直梯度下降直到收敛

梯度下降过程中计算的$\theta_i$可能和实际图中的$\theta_i$有偏差,这个影响不大。下一次再计算用的依旧是实际图中的值 $J(\theta_{0_{i-1}}, \theta_{1_{i-1}})$

2-6,2-7

以上讲的都是batch梯度下降法:每一次计算遍历所有数据集。

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇