作者是国内不知名学府的普通毕业生,最近萌生起重新学数学的打算。
除了自身的学习以外,我认为能够检验自己的掌握水平也要看自己能否把一些概念讲清楚。
如果您有任何关于 概率论,机器学习,线性代数 , 运筹,组合数学的疑问,请在这里留言。
我将会优先回答一些具体问题。
(由于作者水平能力一般,所以希望大家提问的范围限定在大学本科四年级以下)
其实也不用。我觉得学习的顺序在工作以后,用新的视角来以自己最舒服的顺序去组织,而非以学院 Old School.
笔者目前的学习方式是这样的: 兴趣使然,需要研究目前用户的特征,涉及到分类器,想尝试用 NB(朴素贝叶斯), 因此涉及到概率论与数理统计的知识,以及概率空间,(线性,矩阵), 所以找到了书和一些网上相关的内容。
看得很慢,一点点努力就好了。比如今天需要解释的 Naive(朴素) 表示的是各特征间分布的独立性假设 (independence hypothesis) 以及 Bayes 条件概率分布的理论知识。
学校的时候不太认真,现在工作了还是要还的。
先简单想一下,后续我再补充好了。
MLE 是一种参数估计的技术,对总体分布 (离散/ 连续分布) 的参数 进行估计,
比如我们知道某样本观测是服从正态分布的,但总体的均值和方差不清楚,所以用样本均值和 样本方差 ( 分母 n , n-1 分出 2 种方差估计) 去来"猜测总体可能是这样的" ;
MaPE 是最大后验概率,在我最近看的 NB 学习策略中,首先计算先验概率和独立条件概率,然后用 Bayesian 估计 出某个样本 可能是属于 C1 类的概率 可能是属于 C_k 类的概率,那么到底决定是哪一类更稳妥呢。
在监督学习中,通常还有一个风险损失函数 (我们自然是保守希望风险越低越好), 假设用常用的风险 0-1 损失函数去验证。当你决定使用最大后验概率的分类去猜测和次大概率去猜测时,前者的风险更小。
这是我现在脑子简单回顾的东西。
这周有时间的话我再写一下工式的推导。
希望能有帮助。
MAP, MLE 区别在 PRML 前 40 页有讲,讲的很。。。清晰,大概就是 Bayesian 和 Frequentist 的区别,但 Bayesian 又不是不用 MLE
机器学习和概率统计的一大问题是各种技巧,方法,学派,问题,容易学的乱,看到一个问题是属于哪个类别,不同的解法的出发点是什么,很容易搞不清楚