Giter Site home page Giter Site logo

Comments (19)

Nono17 avatar Nono17 commented on May 3, 2024

(12.12)这个不明白

请问你是哪里不太明白?书上这不是给出了推导

from pumpkin-book.

johnmaster avatar johnmaster commented on May 3, 2024

@Nono17 (12.12)为什么(1-∈)的m次小于e的负m*∈次。十分感谢。

from pumpkin-book.

Sm1les avatar Sm1les commented on May 3, 2024

@johnmaster 同学你好,因为(1-ε)^m=e^[mln(1-ε)],而e^[mln(1-ε)]是恒小于e^[m*(-ε)]的,所以(1-ε)^m也就恒小于e^[m*(-ε)]了。

from pumpkin-book.

johnmaster avatar johnmaster commented on May 3, 2024

@Sm1les 十分感谢!

from pumpkin-book.

jbb0523 avatar jbb0523 commented on May 3, 2024

请问定理12.4最后为什么“以至少1-\delta的概率成立”,这边儿有推导么?类似情况还有定理12.9的结论~

from pumpkin-book.

Xinxing-97 avatar Xinxing-97 commented on May 3, 2024

12.13最后一行,由1−δ⩾1−∣H∣e^( −mϵ) 应该推出∣H∣e ^(−mϵ) >=δ才对呀,解析结果写反了吧

from pumpkin-book.

archwalker avatar archwalker commented on May 3, 2024

@the-life-is-short 您好,这里确实存在逻辑错误,已修复,感谢反馈

from pumpkin-book.

yijiezcn avatar yijiezcn commented on May 3, 2024

式12.24 $|H_{|D'}| + |H_{D'|D}|$ 那个不等号的summation,第二个应该是从i=0到i-1,不是i+1

from pumpkin-book.

archwalker avatar archwalker commented on May 3, 2024

12.24 $|H_{|D'}| + |H_{D'|D}|$ 那个不等号的summation,第二个应该是从i=0到i-1,不是i+1

您好,这里是笔误,已修正,感谢反馈!

from pumpkin-book.

yijiezcn avatar yijiezcn commented on May 3, 2024

您好,式12.13这里的逻辑我不太明白,我们要回答的问题是“训练集的规模如何才能使学习算法以一定概率找到目标假设的\epsilon 近似”,因此我们应该直接计算“泛化误差>\epsilon”的概率。但是我们计算的概率却是“(泛化误差>\epsilon) 且(经验误差为0)”。我知道后者会小于前者,所以不影响结论,但是这样推出来的bound应该是非常松的。请问应该怎么理解呢?

from pumpkin-book.

yijiezcn avatar yijiezcn commented on May 3, 2024

您好,关于式12.12我也有一个问题,这个概率从语境上理解应该是“存在 h \in H, 泛化误差>\epsilon 且 经验误差为0”的概率。但是这样的写法好像就变成了是“h \in H”的概率。这样的写法我不太能理解。

from pumpkin-book.

yijiezcn avatar yijiezcn commented on May 3, 2024

您好,关于式12.31的问题。在推导E(g)和E(h)被经验误差bound住时,我们分别令\epsilon为不一样的值。但是在后续合并时,出现了\epsilon/2 + \epsilon/2 = \epsilon这样的操作。这里两个\epsilon的值不一样,为什么可以直接相加呢?

from pumpkin-book.

archwalker avatar archwalker commented on May 3, 2024

您好,式12.13这里的逻辑我不太明白,我们要回答的问题是“训练集的规模如何才能使学习算法以一定概率找到目标假设的\epsilon 近似”,因此我们应该直接计算“泛化误差>\epsilon”的概率。但是我们计算的概率却是“(泛化误差>\epsilon) 且(经验误差为0)”。我知道后者会小于前者,所以不影响结论,但是这样推出来的bound应该是非常松的。请问应该怎么理解呢?

您好,注意到此节讨论的是“可分情形”,即目标概念 c 属于假设空间\mathcal{H},因此必有经验误差为 0。

from pumpkin-book.

archwalker avatar archwalker commented on May 3, 2024

您好,关于式12.12我也有一个问题,这个概率从语境上理解应该是“存在 h \in H, 泛化误差>\epsilon 且 经验误差为0”的概率。但是这样的写法好像就变成了是“h \in H”的概率。这样的写法我不太能理解。

您好,这里在一些教材比如浙大版的《概率论与数理统计》中写作 | 表示条件概率的意思。

from pumpkin-book.

archwalker avatar archwalker commented on May 3, 2024

您好,关于式12.31的问题。在推导E(g)和E(h)被经验误差bound住时,我们分别令\epsilon为不一样的值。但是在后续合并时,出现了\epsilon/2 + \epsilon/2 = \epsilon这样的操作。这里两个\epsilon的值不一样,为什么可以直接相加呢?

您好,这两个\epsilon 是相等的,在定理 12.3 中给出了\epsilon 和 \delta 的关系,式 12.32给出了\delta^{\prime} 和\delta,\delta^{\prime} 和 \epsilon 的关系,验算可知两个\epsilon 是一样的。

from pumpkin-book.

yijiezcn avatar yijiezcn commented on May 3, 2024

您好,关于式12.31的问题。在推导E(g)和E(h)被经验误差bound住时,我们分别令\epsilon为不一样的值。但是在后续合并时,出现了\epsilon/2 + \epsilon/2 = \epsilon这样的操作。这里两个\epsilon的值不一样,为什么可以直接相加呢?

您好,这两个\epsilon 是相等的,在定理 12.3 中给出了\epsilon 和 \delta 的关系,式 12.32给出了\delta^{\prime} 和\delta,\delta^{\prime} 和 \epsilon 的关系,验算可知两个\epsilon 是一样的。

谢谢您的回答!

from pumpkin-book.

Ardea-alba avatar Ardea-alba commented on May 3, 2024

12.29解得的等式应该是ε=……而不是δ吧

from pumpkin-book.

FuRuF-11 avatar FuRuF-11 commented on May 3, 2024

您好,我注意到公式12.12中,泛化误差的期望$E(h) > \epsilon$与经验误差的关系是交集,这里是否有些不妥?
因为最后我们要想严格的按照PAC学习的定义的形式的话,需要除了令$δ>=|H|e^{}$外,还需要对12.12两边同时用1减去原始式子,再取反化简。
然而,若此时依然按照12.12中的内容对P()中的内容进行取反的话,我们得到的结果为
$$
P( \forall h \in H : E(h) \leq \epsilon \lor \hat E(h) \not = 0)
$$
这与我们想要得到的结果是矛盾的。所以我觉得,这里换成条件概率的的形式会不会更好?因为这里我们已经假设了是在有限假设空间中的可分的情况($\hat E(h)=0$),将其作为条件应当是可以的。

from pumpkin-book.

bghfcd19900 avatar bghfcd19900 commented on May 3, 2024

from pumpkin-book.

Related Issues (20)

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.