Comments (19)
(12.12)这个不明白
请问你是哪里不太明白?书上这不是给出了推导
from pumpkin-book.
@Nono17 (12.12)为什么(1-∈)的m次小于e的负m*∈次。十分感谢。
from pumpkin-book.
@johnmaster 同学你好,因为(1-ε)^m=e^[mln(1-ε)],而e^[mln(1-ε)]是恒小于e^[m*(-ε)]的,所以(1-ε)^m也就恒小于e^[m*(-ε)]了。
from pumpkin-book.
@Sm1les 十分感谢!
from pumpkin-book.
请问定理12.4最后为什么“以至少1-\delta的概率成立”,这边儿有推导么?类似情况还有定理12.9的结论~
from pumpkin-book.
12.13最后一行,由1−δ⩾1−∣H∣e^( −mϵ) 应该推出∣H∣e ^(−mϵ) >=δ才对呀,解析结果写反了吧
from pumpkin-book.
@the-life-is-short 您好,这里确实存在逻辑错误,已修复,感谢反馈
from pumpkin-book.
式12.24
from pumpkin-book.
12.24
$|H_{|D'}| + |H_{D'|D}|$ 那个不等号的summation,第二个应该是从i=0到i-1,不是i+1
您好,这里是笔误,已修正,感谢反馈!
from pumpkin-book.
您好,式12.13这里的逻辑我不太明白,我们要回答的问题是“训练集的规模如何才能使学习算法以一定概率找到目标假设的\epsilon 近似”,因此我们应该直接计算“泛化误差>\epsilon”的概率。但是我们计算的概率却是“(泛化误差>\epsilon) 且(经验误差为0)”。我知道后者会小于前者,所以不影响结论,但是这样推出来的bound应该是非常松的。请问应该怎么理解呢?
from pumpkin-book.
您好,关于式12.12我也有一个问题,这个概率从语境上理解应该是“存在 h \in H, 泛化误差>\epsilon 且 经验误差为0”的概率。但是这样的写法好像就变成了是“h \in H”的概率。这样的写法我不太能理解。
from pumpkin-book.
您好,关于式12.31的问题。在推导E(g)和E(h)被经验误差bound住时,我们分别令\epsilon为不一样的值。但是在后续合并时,出现了\epsilon/2 + \epsilon/2 = \epsilon这样的操作。这里两个\epsilon的值不一样,为什么可以直接相加呢?
from pumpkin-book.
您好,式12.13这里的逻辑我不太明白,我们要回答的问题是“训练集的规模如何才能使学习算法以一定概率找到目标假设的\epsilon 近似”,因此我们应该直接计算“泛化误差>\epsilon”的概率。但是我们计算的概率却是“(泛化误差>\epsilon) 且(经验误差为0)”。我知道后者会小于前者,所以不影响结论,但是这样推出来的bound应该是非常松的。请问应该怎么理解呢?
您好,注意到此节讨论的是“可分情形”,即目标概念 c 属于假设空间\mathcal{H},因此必有经验误差为 0。
from pumpkin-book.
您好,关于式12.12我也有一个问题,这个概率从语境上理解应该是“存在 h \in H, 泛化误差>\epsilon 且 经验误差为0”的概率。但是这样的写法好像就变成了是“h \in H”的概率。这样的写法我不太能理解。
您好,这里在一些教材比如浙大版的《概率论与数理统计》中写作 | 表示条件概率的意思。
from pumpkin-book.
您好,关于式12.31的问题。在推导E(g)和E(h)被经验误差bound住时,我们分别令\epsilon为不一样的值。但是在后续合并时,出现了\epsilon/2 + \epsilon/2 = \epsilon这样的操作。这里两个\epsilon的值不一样,为什么可以直接相加呢?
您好,这两个\epsilon 是相等的,在定理 12.3 中给出了\epsilon 和 \delta 的关系,式 12.32给出了\delta^{\prime} 和\delta,\delta^{\prime} 和 \epsilon 的关系,验算可知两个\epsilon 是一样的。
from pumpkin-book.
您好,关于式12.31的问题。在推导E(g)和E(h)被经验误差bound住时,我们分别令\epsilon为不一样的值。但是在后续合并时,出现了\epsilon/2 + \epsilon/2 = \epsilon这样的操作。这里两个\epsilon的值不一样,为什么可以直接相加呢?
您好,这两个\epsilon 是相等的,在定理 12.3 中给出了\epsilon 和 \delta 的关系,式 12.32给出了\delta^{\prime} 和\delta,\delta^{\prime} 和 \epsilon 的关系,验算可知两个\epsilon 是一样的。
谢谢您的回答!
from pumpkin-book.
12.29解得的等式应该是ε=……而不是δ吧
from pumpkin-book.
您好,我注意到公式12.12中,泛化误差的期望$E(h) > \epsilon$与经验误差的关系是交集,这里是否有些不妥?
因为最后我们要想严格的按照PAC学习的定义的形式的话,需要除了令$δ>=|H|e^{}$外,还需要对12.12两边同时用1减去原始式子,再取反化简。
然而,若此时依然按照12.12中的内容对P()中的内容进行取反的话,我们得到的结果为
$$
P( \forall h \in H : E(h) \leq \epsilon \lor \hat E(h) \not = 0)
$$
这与我们想要得到的结果是矛盾的。所以我觉得,这里换成条件概率的的形式会不会更好?因为这里我们已经假设了是在有限假设空间中的可分的情况($\hat E(h)=0$),将其作为条件应当是可以的。
from pumpkin-book.
from pumpkin-book.
Related Issues (20)
- 在线的链接无法打开 HOT 1
- ROC曲线为什么真正例率与假正例率可以同时增加 HOT 2
- 机器学习
- 南瓜书中的公式2.21的讲解感觉有点晦涩了 HOT 1
- 公式(12.39)的解释有问题 HOT 2
- 公式12.36
- released版本的pdf中有一处错误
- 西瓜書
- 书中 公式(3.35) 公式(3.36)怎么没有啊! HOT 1
- 公式16.16 HOT 2
- 公式16.16
- 进不去链接 HOT 5
- 式 2.27 HOT 2
- 10.17 求解CPA时的问题
- 关于公式3-9
- @yanglei-github 事件{f(x)=1}和{f(x)=-1}已经是完备事件组了,求期望是 权重(概率)*值,然后P(f(x)=1|x)是概率,e^(-H(x)f(x))为值,又知道f(x)=1,那么值就是e^(-H(x)),然后把P(f(x)=-1|x)也加上就出现了上述式子
- 第五章 式(5.2) 中最后推导梯度的时候,\hat(yi)也应该是关于w的函数,没有对其求导,直接当成常数处理了,这似乎是不正确的。 HOT 1
- > @wanyixue 同学你好,损失函数L是关于w和theta的函数,只有w和theta是未知的变量,\hat(yi)和yi都是已知量,所以不用对他们求导,因此也不存在不可导一说
- There are no page numbers in the most recent PDF file pages HOT 4
- v2.0.0版本的PDF中10.5.1节有关主成分分析的推导流程有处错误 HOT 2
Recommend Projects
-
React
A declarative, efficient, and flexible JavaScript library for building user interfaces.
-
Vue.js
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
-
Typescript
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
-
TensorFlow
An Open Source Machine Learning Framework for Everyone
-
Django
The Web framework for perfectionists with deadlines.
-
Laravel
A PHP framework for web artisans
-
D3
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
-
Recommend Topics
-
javascript
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
-
web
Some thing interesting about web. New door for the world.
-
server
A server is a program made to process requests and deliver data to clients.
-
Machine learning
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
-
Visualization
Some thing interesting about visualization, use data art
-
Game
Some thing interesting about game, make everyone happy.
Recommend Org
-
Facebook
We are working to build community through open source technology. NB: members must have two-factor auth.
-
Microsoft
Open source projects and samples from Microsoft.
-
Google
Google ❤️ Open Source for everyone.
-
Alibaba
Alibaba Open Source for everyone
-
D3
Data-Driven Documents codes.
-
Tencent
China tencent open source team.
from pumpkin-book.