作者是国内不知名学府的普通毕业生, 最近萌生起重新学数学的打算.
除了自身的学习以外, 我认为能够检验自己的掌握水平也要看自己能否把一些概念讲清楚.
如果您有任何关于 概率论, 机器学习, 线性代数 , 运筹, 组合数学的疑问, 请在这里留言.
我将会优先回答一些具体问题.
(由于作者水平能力一般, 所以希望大家提问的范围限定在大学本科四年级以下)
其实也不用. 我觉得学习的顺序在工作以后, 用新的视角来以自己最舒服的顺序去组织, 而非以学院 Old School.
笔者目前的学习方式是这样的: 兴趣使然, 需要研究目前用户的特征, 涉及到分类器, 想尝试用 NB(朴素贝叶斯), 因此涉及到概率论与数理统计的知识, 以及概率空间, (线性, 矩阵), 所以找到了书和一些网上相关的内容.
看得很慢, 一点点努力就好了. 比如今天需要解释的 Naive(朴素) 表示的是各特征间分布的独立性假设 (independence hypothesis) 以及 Bayes 条件概率分布的理论知识.
学校的时候不太认真, 现在工作了还是要还的.
先简单想一下, 后续我再补充好了.
MLE 是一种参数估计的技术, 对总体分布 (离散/ 连续分布) 的参数 进行估计,
比如我们知道某样本观测是服从正态分布的, 但总体的均值和方差不清楚, 所以用样本均值和 样本方差 ( 分母 n , n-1 分出 2 种方差估计) 去来"猜测总体可能是这样的" ;
MaPE 是最大后验概率, 在我最近看的 NB 学习策略中, 首先计算先验概率和独立条件概率, 然后用 Bayesian 估计 出某个样本 可能是属于 C1 类的概率 可能是属于 C_k 类的概率, 那么到底决定是哪一类更稳妥呢.
在监督学习中, 通常还有一个风险损失函数 (我们自然是保守希望风险越低越好), 假设用常用的风险 0-1 损失函数去验证. 当你决定使用最大后验概率的分类去猜测和次大概率去猜测时, 前者的风险更小.
这是我现在脑子简单回顾的东西.
这周有时间的话我再写一下工式的推导.
希望能有帮助.
MAP, MLE 区别在 PRML 前 40 页有讲,讲的很。。。清晰,大概就是 Bayesian 和 Frequentist 的区别,但 Bayesian 又不是不用 MLE
机器学习和概率统计的一大问题是各种技巧,方法,学派,问题,容易学的乱,看到一个问题是属于哪个类别,不同的解法的出发点是什么,很容易搞不清楚