数学 数学节点可能是特别冷清的地方, 但我还是希望有更多的朋友喜欢数学

staticor · 2018年05月07日 · 最后由 staticor 回复于 2018年05月10日 · 6773 次阅读

作者是国内不知名学府的普通毕业生,最近萌生起重新学数学的打算。

除了自身的学习以外,我认为能够检验自己的掌握水平也要看自己能否把一些概念讲清楚。

如果您有任何关于 概率论,机器学习,线性代数 , 运筹,组合数学的疑问,请在这里留言。

我将会优先回答一些具体问题。

(由于作者水平能力一般,所以希望大家提问的范围限定在大学本科四年级以下)

我也有打算重新学一遍 书都还留着 哈哈哈

基本全都忘了,感觉要从数学分析,高等代数开始学起。

4 楼 已删除
springwq 回复

其实也不用。我觉得学习的顺序在工作以后,用新的视角来以自己最舒服的顺序去组织,而非以学院 Old School.

笔者目前的学习方式是这样的: 兴趣使然,需要研究目前用户的特征,涉及到分类器,想尝试用 NB(朴素贝叶斯), 因此涉及到概率论与数理统计的知识,以及概率空间,(线性,矩阵), 所以找到了书和一些网上相关的内容。

看得很慢,一点点努力就好了。比如今天需要解释的 Naive(朴素) 表示的是各特征间分布的独立性假设 (independence hypothesis) 以及 Bayes 条件概率分布的理论知识。

学校的时候不太认真,现在工作了还是要还的。

有一个项目还真的用了不少数学知识,不过现在野忘了…

Maximum Likelihood Estimation (MLE) 和 Maximum A Posteriori (MAP) 的区别有哪些?

原来还有这么个节点

目前在学离散数学 ing

imwildcat 回复

先简单想一下,后续我再补充好了。

MLE 是一种参数估计的技术,对总体分布 (离散/ 连续分布) 的参数 进行估计,

比如我们知道某样本观测是服从正态分布的,但总体的均值和方差不清楚,所以用样本均值和 样本方差 ( 分母 n , n-1 分出 2 种方差估计) 去来"猜测总体可能是这样的" ;

MaPE 是最大后验概率,在我最近看的 NB 学习策略中,首先计算先验概率和独立条件概率,然后用 Bayesian 估计 出某个样本 可能是属于 C1 类的概率 可能是属于 C_k 类的概率,那么到底决定是哪一类更稳妥呢。

在监督学习中,通常还有一个风险损失函数 (我们自然是保守希望风险越低越好), 假设用常用的风险 0-1 损失函数去验证。当你决定使用最大后验概率的分类去猜测和次大概率去猜测时,前者的风险更小。

这是我现在脑子简单回顾的东西。

这周有时间的话我再写一下工式的推导。

希望能有帮助。

MAP, MLE 区别在 PRML 前 40 页有讲,讲的很。。。清晰,大概就是 Bayesian 和 Frequentist 的区别,但 Bayesian 又不是不用 MLE

机器学习和概率统计的一大问题是各种技巧,方法,学派,问题,容易学的乱,看到一个问题是属于哪个类别,不同的解法的出发点是什么,很容易搞不清楚

学数学太枯燥啦

说的好像数学家都不直爽不实在喜欢拐弯抹角似的

需要 登录 后方可回复, 如果你还没有账号请 注册新账号