以下是人工智能入门之机器学习数学基础的全讲内容:
线性代数
向量与矩阵:向量是具有大小和方向的量,在机器学习中常用来表示数据特征或模型参数。矩阵是由数排成的矩形阵列,可用于表示线性变换、数据集合等。比如在图像识别中,一张图像的像素值可以用矩阵来表示。
矩阵运算:包括加法、减法、数乘、乘法等。矩阵乘法在机器学习中尤为重要,如神经网络中的权重计算就涉及大量矩阵乘法。例如在计算神经网络的前向传播时,输入向量与权重矩阵相乘得到输出。
行列式:是一个与方阵相关的数值,可用于判断矩阵是否可逆等。在求解线性方程组时,行列式可帮助判断方程组解的情况。
特征值与特征向量:对于矩阵
A
,若存在数
λ
和非零向量
x
,使得
Ax=λx
,则
λ
为特征值,
x
为特征向量。在主成分分析(PCA)中,通过计算数据协方差矩阵的特征值和特征向量来确定数据的主要成分。
概率论
基本概念:包括随机事件、样本空间、概率等。如在抛硬币实验中,正面朝上或反面朝上是随机事件,所有可能结果构成样本空间。
概率分布
离散型分布:如二项分布用于描述
n
次独立重复试验中成功的次数;泊松分布常用于描述在固定时间或空间内事件发生的次数。
连续型分布:正态分布是最常见的连续型分布,许多自然现象和数据都近似服从正态分布,在机器学习中常假设数据服从正态分布来进行建模和分析。
随机变量的数字特征
期望:表示随机变量的平均取值,如对一个服从正态分布的随机变量,期望就是其分布的中心位置。
方差:衡量随机变量取值的离散程度,方差越大,说明随机变量的取值越分散。
协方差与相关系数:用于衡量两个随机变量之间的线性关系程度,在分析多个特征之间的相关性时经常用到。
微积分
导数与微分
导数:表示函数在某一点的变化率,在机器学习的优化算法中,如梯度下降法,需要计算损失函数的导数来确定参数的更新方向。
偏导数:对于多元函数,偏导数用于衡量函数在某一变量方向上的变化率,在神经网络中,计算损失函数对各个权重的偏导数来更新权重。
积分:包括不定积分和定积分,不定积分是求导的逆运算,定积分可用于计算函数在某个区间上的面积、体积等,在概率论中,通过积分计算连续型随机变量的概率密度函数在某个区间上的概率。
梯度与优化:梯度是一个向量,其方向是函数在该点上升最快的方向,与梯度相反的方向就是函数下降最快的方向,这是梯度下降等优化算法的基础。
最优化理论
无约束优化:如利用梯度下降法、牛顿法等求解无约束条件下的函数最小值或最大值问题,在训练机器学习模型时,常需要最小化损失函数,这就是一个无约束优化问题。
有约束优化:当优化问题存在约束条件时,可采用拉格朗日乘数法等将其转化为无约束优化问题来求解,如支持向量机中求解最优分类超平面的问题就是一个有约束的优化问题。
随机过程
马尔可夫链:具有马尔可夫性,即未来的状态只与当前状态有关,与过去的状态无关,在自然语言处理中的词性标注等任务中有着广泛应用。
隐马尔可夫模型:是马尔可夫链的扩展,包含隐藏状态和可观察状态,常用于语音识别、生物信息学等领域。
课程目录:
0-课程简介The most popular courses