ログイン
机器学习1
100問 • 2年前
  • YUKI.N〉また図書館に
  • 通報

    問題一覧

  • 1

    监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别4种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求:

    多分类问题

  • 2

    K-means对于下列哪一种类型的数据集的聚类效果不好?

    带状分布数据集

  • 3

    有监督学习中,“近朱者赤近墨者黑”是用来形容下列哪个模型?

    KNN

  • 4

    L1和L2正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者的说法正确的是:

    L1正则化可以做特征选择

  • 5

    在混淆矩阵中,系统精准率定义为()。

    TP/(FP+TP)

  • 6

    下列描述无监督学习错误的是( )。

    不需要降维

  • 7

    下列反映了自变量对因变量的可解释比例, 用以判断统计回归模型的解释力的是()。

    可决系数

  • 8

    线性回归在3维以上的维度中拟合面是?

    超平面

  • 9

    以下关于机器学习描述正确的是?

    深度学习是机器学习的一个分支

  • 10

    以下关于剪枝的描述中,哪一项是错误的?

    CID3算法中都会进行剪枝

  • 11

    下列描述有监督学习错误的是( )。

    所有数据都相互独立分布

  • 12

    一般,KNN最近邻方法在( )的情况下效果较好?

    样本较少但典型性好

  • 13

    以下关于随机森林(Random Forest)说法正确的是( )。

    随机森林学习过程分为选择样本、选择特征、构建决策树、投票四个部分

  • 14

    下列方法不受数据归一化影响的是()

    决策树

  • 15

    以下是线性回归应用场景的是()。

    房价预测

  • 16

    以下关于决策树的描述中,哪一项是错误的?

    决策树中除了根节点之外的其它节点统称为叶子节点

  • 17

    以下常见分布中,哪一项是一般认为的线性回归中的误差服从的分布?

    正态分布

  • 18

    如果一个模型在测试集上偏差很大,方差很小,则说明该模型?

    欠拟合

  • 19

    以下选项中不属于回归算法的性能评估的是哪一项?

    Recall召回率

  • 20

    “从有标签的历史数据中来预测下季度的商铺营收会在20-30万还是30-40万”,这是一个什么问题?

    分类问题

  • 21

    以下哪个选项是神经网络训练最常用的方法?

    梯度下降

  • 22

    以下关于K最临近算法中K值的描述,哪一项是错误的?

    K值越大越容易过拟合,因为分割过于细腻

  • 23

    欠拟合的产生原因有()。

    学习到数据的特征过少

  • 24

    以下关于机器学习常见算法的描述中,哪一项说法是正确的()

    类试图将数据集中的样本划分为若干个子集,每个子集称为一个"簇"

  • 25

    下关于交叉验证的描述中,哪一项是错误的

    k折交叉验证方法中的k不是超参数,是由模型训练得来的

  • 26

    关于交叉验证,下列说法中错误的是( )。

    交叉验证能够提升模型的准确率

  • 27

    下列哪个距离度量不在KNN算法中体现:

    余弦距离

  • 28

    关于线性回归的说法不正确的是()

    线性回归不属于回归问题

  • 29

    以下关于朴素贝叶斯的说法中,哪一项是错误的?

    朴素贝叶斯算法依赖于人工神经网格,因此使用起来非常复杂

  • 30

    train_test_split函数的test_size参数规定了测试集占完整数据集的比例,默认取( )

    0.25

  • 31

    线性回归的核心是()

    参数学习

  • 32

    下列不属于过拟合的解决办法是()

    添加其他特征项

  • 33

    机器学习中,需要模型输入什么来训练自身,预测未知?

    历史数据

  • 34

    以下关于逻辑回归与线性回归问题的描述错误的是()

    逻辑回归一般要求变量服从正态分布,线性回归一般不要求

  • 35

    以下关于模型有效性的描述中,哪一项是错误的

    训练误差指的是在新样本上的误差

  • 36

    下列对核函数的说法中,不正确的是()

    需要映射函数的具体形式

  • 37

    关于各类核函数的优缺点说法错误的是:()

    高斯核计算简单,不容易过拟合

  • 38

    下列关于kd-tree的说法错误的是( )

    在选取根节点时使用的是方差较小的那一维数据

  • 39

    机器学习中L1正则化和L2正则化的区别是?

    使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值

  • 40

    以下属于回归算法的评价指标是?

    均方误差

  • 41

    以下关于机器学习中分类模型与回归模型的说法,哪一项说法是正确的?

    回归问题知分类问题都有可能发生过拟合

  • 42

    回归算法预测的标签是?

    连续型

  • 43

    批量梯度下降,小批量梯度下降,随机梯度下降最重要的区别在哪里?

    使用样本数

  • 44

    Bagging集成学习中,每个基学习器之间的关系是?

    相互独立

  • 45

    如果一个样本空间线性可分,那么,我们能找到()个平面来划分样本

    无数

  • 46

    对训练数据归一化的根本原因是?

    让模型更快的收敛

  • 47

    以下关于特征选择描述的选项中,哪一个选项是错误的?

    特征选择无法避免维度爆炸的问题

  • 48

    下列哪项不是支持向量机常用的核函数( )

    拉普拉斯核

  • 49

    下面哪一项不是Sigmoid的特点?

    当σ(z)小于0.5时,预测 y=-1

  • 50

    以下选项中不属于超参数搜索方法的是哪一项?

    聚类算法

  • 51

    朴素贝叶斯的优点不包括( )

    朴素贝叶斯模型对输入数据的表达形式很敏感

  • 52

    数据在完成特征工程的操作后,在构建模型的过程中,以下哪个选项不属于决策树构建过程当中的步骤?

    数据清理

  • 53

    混淆矩阵的假正是指( )

    模型预测为正的负样本

  • 54

    以下哪个关于监督式学习的说法是正确的?

    决策树是一种监督式学习

  • 55

    进行数据正态化处理可以使用scikit-learn中的哪个类

    StandardScaler

  • 56

    哪些算法不需要数据归一化?

    决策树

  • 57

    如果不存在一个能正确划分两类样本的超平面,应该怎么办?

    将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性可分

  • 58

    影响KNN算法效果的主要因素不包括()

    最近数据的距离

  • 59

    构建一个最简单的线性回归模型需要几个系数(只有一个特征)?

    2

  • 60

    以下哪项关于数据集扩充的说法是正确的?

    数据集越大过拟合概率越小

  • 61

    机器学习的算法中,以下哪个不是无监督学习?

    Xgboost

  • 62

    常用的核函数有哪些:

    线性核函数、多项式核函数、高斯径向核函数

  • 63

    机器学习是研究如何使用机器来 的一门学科。

    模拟人类学习活动

  • 64

    数据预处理中,对缺失值的处理方法有:

    删除法、替换法、插值法

  • 65

    高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的严重障碍,被称为 。

    维数灾难

  • 66

    CART算法中分类树对于纯度的量化指标主要通过____________系数。[输入中文]

    基尼

  • 67

    线性回归的损失函数中加入L1正则化,此时该回归叫做 。

    Lasso回归

  • 68

    逻辑回归假设因变量y 分布

    伯努利

  • 69

    决策树拥有很强的数据拟合能力,往往会产生 现象,因此需要对决策树进行剪枝

    过拟合

  • 70

    在支持向量机中,距离超平面最近的且满足一定条件的几个训练样本点被称为 。

    支持向量

  • 71

    ()反映了感知器目标输出和实际输出之间的误差。[请输入中文]

    损失函数

  • 72

    当线性支持向量机解决问题受限时,可以使用____来构建非线性支持向量机。

    核函数

  • 73

    sklearn模块的 子模块提供了多种自带的数据集,可以通过这些数据集进行数据的预处理、建模等操作,从而练习使用sklearn模块实现数据分析的处理流程和建模流程。

    datasets

  • 74

    KNN在分类预测时,一般采用多数表决法;KNN在做回归预测时,一般采用 ()值法。

    平均

  • 75

    使用带有L2-norm正则项损失函数的线性回归也叫 。

    岭回归

  • 76

    在机器学习中,一行数据我们称为一个(),一列数据我们成为一个()。

    样本、特征

  • 77

    可以使用scikit-learn中()进行数据归一化转换。

    Normalizer

  • 78

    分类模型误差可分为两种:()和()。

    训练误差、泛化误差

  • 79

    训练一个机器学习模型往往需要对大量的参数进行反复调试或者搜索,这一过程称为____。其中在训练之前调整设置的参数,称为_______。

    调参、超参数

  • 80

    ()是指预测为正例的那些数据里预测正确的数据个数。

    精准率

  • 81

    SVM的主要目标是寻找最佳(),以便在不同类的数据间进行正确分类。

    超平面

  • 82

    机器学习的整体流程一般包括数据准备、数据清洗、特征提取与选择、模型()、模型评估测试、模型评估与整合。

    训练

  • 83

    为了评估模型拟合的好坏,通常用来()度量拟合的程度。

    损失函数

  • 84

    ()是最早用于决策树模型的特征选择指标,也是ID3算法的核心。

    信息增益

  • 85

    ()算法类型反映了样本数据集中样本的属性值连续的特性,通过函数表达样本映射的关系来发现属性值之间的依赖关系。

    回归

  • 86

    ⼆维空间中两个点A(0,5),B(4,8),则A点和B点的欧式距离为(),曼哈顿距离为()。

    5、7

  • 87

    ()是指我们的模型预测正确的结果所占的比例。

    准确率

  • 88

    容量高的模型能够解决复杂的任务,但是其容量高于任务所需时,有可能会造成()拟合问题。

  • 89

    线性回归假设因变量y服从()分布

    正态

  • 90

    在决策树学习中将已生成的树进行简化的过程称为()。

    剪枝

  • 91

    线性回归的目标是求解w和b,使得f(x)与y尽可能接近。求解线性回归模型的基本方法是()。

    最小二乘法

  • 92

    逻辑回归只能用于二分类问题,如果是多分类问题,我们通常使用______函数

    softmax

  • 93

    学得模型适用于新样本的能力,称为()能力。该能力越强,说明学得的模型越能很好地适用于整个样本空间。

    泛化

  • 94

    机器学习算法按照学习方式分类,可以将机器学习分为以下四种类型: 、 、 和 。

    监督学习、非监督学习、半监督学习、强化学习

  • 95

    随机森林的基本单元是(),是一种集成学习方法。

    决策树

  • 96

    ()指的是训练过程中使用的数据集,其中每个样本称为训练样本。[输入中文]

    训练集

  • 97

    模型超参数是模型内部的配置,超参数通常需要依靠模型自己学习和选择,而不是靠使用者指定。

  • 98

    数据集扩充是防止过拟合的一个省时有效的方法。

  • 99

    正则化力度越大,权重系数会越小。

  • 100

    随机森林构建决策树时,是无放回的选取训练数据。

  • 英语

    英语

    YUKI.N〉また図書館に · 187問 · 2年前

    英语

    英语

    187問 • 2年前
    YUKI.N〉また図書館に

    华为ICT

    华为ICT

    YUKI.N〉また図書館に · 17問 · 2年前

    华为ICT

    华为ICT

    17問 • 2年前
    YUKI.N〉また図書館に

    人工智能竞赛

    人工智能竞赛

    YUKI.N〉また図書館に · 100問 · 2年前

    人工智能竞赛

    人工智能竞赛

    100問 • 2年前
    YUKI.N〉また図書館に

    人工智能竞赛1

    人工智能竞赛1

    YUKI.N〉また図書館に · 100問 · 2年前

    人工智能竞赛1

    人工智能竞赛1

    100問 • 2年前
    YUKI.N〉また図書館に

    人工智能竞赛2

    人工智能竞赛2

    YUKI.N〉また図書館に · 100問 · 2年前

    人工智能竞赛2

    人工智能竞赛2

    100問 • 2年前
    YUKI.N〉また図書館に

    人共智能竞赛3

    人共智能竞赛3

    YUKI.N〉また図書館に · 100問 · 2年前

    人共智能竞赛3

    人共智能竞赛3

    100問 • 2年前
    YUKI.N〉また図書館に

    人工智能竞赛4

    人工智能竞赛4

    YUKI.N〉また図書館に · 100問 · 2年前

    人工智能竞赛4

    人工智能竞赛4

    100問 • 2年前
    YUKI.N〉また図書館に

    人工智能竞赛5

    人工智能竞赛5

    YUKI.N〉また図書館に · 100問 · 2年前

    人工智能竞赛5

    人工智能竞赛5

    100問 • 2年前
    YUKI.N〉また図書館に

    机器学习2

    机器学习2

    YUKI.N〉また図書館に · 41問 · 2年前

    机器学习2

    机器学习2

    41問 • 2年前
    YUKI.N〉また図書館に

    图像处理1

    图像处理1

    YUKI.N〉また図書館に · 98問 · 2年前

    图像处理1

    图像处理1

    98問 • 2年前
    YUKI.N〉また図書館に

    边缘智能应用

    边缘智能应用

    YUKI.N〉また図書館に · 99問 · 1年前

    边缘智能应用

    边缘智能应用

    99問 • 1年前
    YUKI.N〉また図書館に

    边缘智能应用1

    边缘智能应用1

    YUKI.N〉また図書館に · 60問 · 1年前

    边缘智能应用1

    边缘智能应用1

    60問 • 1年前
    YUKI.N〉また図書館に

    問題一覧

  • 1

    监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别4种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求:

    多分类问题

  • 2

    K-means对于下列哪一种类型的数据集的聚类效果不好?

    带状分布数据集

  • 3

    有监督学习中,“近朱者赤近墨者黑”是用来形容下列哪个模型?

    KNN

  • 4

    L1和L2正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者的说法正确的是:

    L1正则化可以做特征选择

  • 5

    在混淆矩阵中,系统精准率定义为()。

    TP/(FP+TP)

  • 6

    下列描述无监督学习错误的是( )。

    不需要降维

  • 7

    下列反映了自变量对因变量的可解释比例, 用以判断统计回归模型的解释力的是()。

    可决系数

  • 8

    线性回归在3维以上的维度中拟合面是?

    超平面

  • 9

    以下关于机器学习描述正确的是?

    深度学习是机器学习的一个分支

  • 10

    以下关于剪枝的描述中,哪一项是错误的?

    CID3算法中都会进行剪枝

  • 11

    下列描述有监督学习错误的是( )。

    所有数据都相互独立分布

  • 12

    一般,KNN最近邻方法在( )的情况下效果较好?

    样本较少但典型性好

  • 13

    以下关于随机森林(Random Forest)说法正确的是( )。

    随机森林学习过程分为选择样本、选择特征、构建决策树、投票四个部分

  • 14

    下列方法不受数据归一化影响的是()

    决策树

  • 15

    以下是线性回归应用场景的是()。

    房价预测

  • 16

    以下关于决策树的描述中,哪一项是错误的?

    决策树中除了根节点之外的其它节点统称为叶子节点

  • 17

    以下常见分布中,哪一项是一般认为的线性回归中的误差服从的分布?

    正态分布

  • 18

    如果一个模型在测试集上偏差很大,方差很小,则说明该模型?

    欠拟合

  • 19

    以下选项中不属于回归算法的性能评估的是哪一项?

    Recall召回率

  • 20

    “从有标签的历史数据中来预测下季度的商铺营收会在20-30万还是30-40万”,这是一个什么问题?

    分类问题

  • 21

    以下哪个选项是神经网络训练最常用的方法?

    梯度下降

  • 22

    以下关于K最临近算法中K值的描述,哪一项是错误的?

    K值越大越容易过拟合,因为分割过于细腻

  • 23

    欠拟合的产生原因有()。

    学习到数据的特征过少

  • 24

    以下关于机器学习常见算法的描述中,哪一项说法是正确的()

    类试图将数据集中的样本划分为若干个子集,每个子集称为一个"簇"

  • 25

    下关于交叉验证的描述中,哪一项是错误的

    k折交叉验证方法中的k不是超参数,是由模型训练得来的

  • 26

    关于交叉验证,下列说法中错误的是( )。

    交叉验证能够提升模型的准确率

  • 27

    下列哪个距离度量不在KNN算法中体现:

    余弦距离

  • 28

    关于线性回归的说法不正确的是()

    线性回归不属于回归问题

  • 29

    以下关于朴素贝叶斯的说法中,哪一项是错误的?

    朴素贝叶斯算法依赖于人工神经网格,因此使用起来非常复杂

  • 30

    train_test_split函数的test_size参数规定了测试集占完整数据集的比例,默认取( )

    0.25

  • 31

    线性回归的核心是()

    参数学习

  • 32

    下列不属于过拟合的解决办法是()

    添加其他特征项

  • 33

    机器学习中,需要模型输入什么来训练自身,预测未知?

    历史数据

  • 34

    以下关于逻辑回归与线性回归问题的描述错误的是()

    逻辑回归一般要求变量服从正态分布,线性回归一般不要求

  • 35

    以下关于模型有效性的描述中,哪一项是错误的

    训练误差指的是在新样本上的误差

  • 36

    下列对核函数的说法中,不正确的是()

    需要映射函数的具体形式

  • 37

    关于各类核函数的优缺点说法错误的是:()

    高斯核计算简单,不容易过拟合

  • 38

    下列关于kd-tree的说法错误的是( )

    在选取根节点时使用的是方差较小的那一维数据

  • 39

    机器学习中L1正则化和L2正则化的区别是?

    使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值

  • 40

    以下属于回归算法的评价指标是?

    均方误差

  • 41

    以下关于机器学习中分类模型与回归模型的说法,哪一项说法是正确的?

    回归问题知分类问题都有可能发生过拟合

  • 42

    回归算法预测的标签是?

    连续型

  • 43

    批量梯度下降,小批量梯度下降,随机梯度下降最重要的区别在哪里?

    使用样本数

  • 44

    Bagging集成学习中,每个基学习器之间的关系是?

    相互独立

  • 45

    如果一个样本空间线性可分,那么,我们能找到()个平面来划分样本

    无数

  • 46

    对训练数据归一化的根本原因是?

    让模型更快的收敛

  • 47

    以下关于特征选择描述的选项中,哪一个选项是错误的?

    特征选择无法避免维度爆炸的问题

  • 48

    下列哪项不是支持向量机常用的核函数( )

    拉普拉斯核

  • 49

    下面哪一项不是Sigmoid的特点?

    当σ(z)小于0.5时,预测 y=-1

  • 50

    以下选项中不属于超参数搜索方法的是哪一项?

    聚类算法

  • 51

    朴素贝叶斯的优点不包括( )

    朴素贝叶斯模型对输入数据的表达形式很敏感

  • 52

    数据在完成特征工程的操作后,在构建模型的过程中,以下哪个选项不属于决策树构建过程当中的步骤?

    数据清理

  • 53

    混淆矩阵的假正是指( )

    模型预测为正的负样本

  • 54

    以下哪个关于监督式学习的说法是正确的?

    决策树是一种监督式学习

  • 55

    进行数据正态化处理可以使用scikit-learn中的哪个类

    StandardScaler

  • 56

    哪些算法不需要数据归一化?

    决策树

  • 57

    如果不存在一个能正确划分两类样本的超平面,应该怎么办?

    将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性可分

  • 58

    影响KNN算法效果的主要因素不包括()

    最近数据的距离

  • 59

    构建一个最简单的线性回归模型需要几个系数(只有一个特征)?

    2

  • 60

    以下哪项关于数据集扩充的说法是正确的?

    数据集越大过拟合概率越小

  • 61

    机器学习的算法中,以下哪个不是无监督学习?

    Xgboost

  • 62

    常用的核函数有哪些:

    线性核函数、多项式核函数、高斯径向核函数

  • 63

    机器学习是研究如何使用机器来 的一门学科。

    模拟人类学习活动

  • 64

    数据预处理中,对缺失值的处理方法有:

    删除法、替换法、插值法

  • 65

    高维情形下出现的数据样本稀疏、距离计算困难等问题,是所有机器学习方法共同面临的严重障碍,被称为 。

    维数灾难

  • 66

    CART算法中分类树对于纯度的量化指标主要通过____________系数。[输入中文]

    基尼

  • 67

    线性回归的损失函数中加入L1正则化,此时该回归叫做 。

    Lasso回归

  • 68

    逻辑回归假设因变量y 分布

    伯努利

  • 69

    决策树拥有很强的数据拟合能力,往往会产生 现象,因此需要对决策树进行剪枝

    过拟合

  • 70

    在支持向量机中,距离超平面最近的且满足一定条件的几个训练样本点被称为 。

    支持向量

  • 71

    ()反映了感知器目标输出和实际输出之间的误差。[请输入中文]

    损失函数

  • 72

    当线性支持向量机解决问题受限时,可以使用____来构建非线性支持向量机。

    核函数

  • 73

    sklearn模块的 子模块提供了多种自带的数据集,可以通过这些数据集进行数据的预处理、建模等操作,从而练习使用sklearn模块实现数据分析的处理流程和建模流程。

    datasets

  • 74

    KNN在分类预测时,一般采用多数表决法;KNN在做回归预测时,一般采用 ()值法。

    平均

  • 75

    使用带有L2-norm正则项损失函数的线性回归也叫 。

    岭回归

  • 76

    在机器学习中,一行数据我们称为一个(),一列数据我们成为一个()。

    样本、特征

  • 77

    可以使用scikit-learn中()进行数据归一化转换。

    Normalizer

  • 78

    分类模型误差可分为两种:()和()。

    训练误差、泛化误差

  • 79

    训练一个机器学习模型往往需要对大量的参数进行反复调试或者搜索,这一过程称为____。其中在训练之前调整设置的参数,称为_______。

    调参、超参数

  • 80

    ()是指预测为正例的那些数据里预测正确的数据个数。

    精准率

  • 81

    SVM的主要目标是寻找最佳(),以便在不同类的数据间进行正确分类。

    超平面

  • 82

    机器学习的整体流程一般包括数据准备、数据清洗、特征提取与选择、模型()、模型评估测试、模型评估与整合。

    训练

  • 83

    为了评估模型拟合的好坏,通常用来()度量拟合的程度。

    损失函数

  • 84

    ()是最早用于决策树模型的特征选择指标,也是ID3算法的核心。

    信息增益

  • 85

    ()算法类型反映了样本数据集中样本的属性值连续的特性,通过函数表达样本映射的关系来发现属性值之间的依赖关系。

    回归

  • 86

    ⼆维空间中两个点A(0,5),B(4,8),则A点和B点的欧式距离为(),曼哈顿距离为()。

    5、7

  • 87

    ()是指我们的模型预测正确的结果所占的比例。

    准确率

  • 88

    容量高的模型能够解决复杂的任务,但是其容量高于任务所需时,有可能会造成()拟合问题。

  • 89

    线性回归假设因变量y服从()分布

    正态

  • 90

    在决策树学习中将已生成的树进行简化的过程称为()。

    剪枝

  • 91

    线性回归的目标是求解w和b,使得f(x)与y尽可能接近。求解线性回归模型的基本方法是()。

    最小二乘法

  • 92

    逻辑回归只能用于二分类问题,如果是多分类问题,我们通常使用______函数

    softmax

  • 93

    学得模型适用于新样本的能力,称为()能力。该能力越强,说明学得的模型越能很好地适用于整个样本空间。

    泛化

  • 94

    机器学习算法按照学习方式分类,可以将机器学习分为以下四种类型: 、 、 和 。

    监督学习、非监督学习、半监督学习、强化学习

  • 95

    随机森林的基本单元是(),是一种集成学习方法。

    决策树

  • 96

    ()指的是训练过程中使用的数据集,其中每个样本称为训练样本。[输入中文]

    训练集

  • 97

    模型超参数是模型内部的配置,超参数通常需要依靠模型自己学习和选择,而不是靠使用者指定。

  • 98

    数据集扩充是防止过拟合的一个省时有效的方法。

  • 99

    正则化力度越大,权重系数会越小。

  • 100

    随机森林构建决策树时,是无放回的选取训练数据。