机器学习1
問題一覧
1
多分类问题
2
带状分布数据集
3
KNN
4
L1正则化可以做特征选择
5
TP/(FP+TP)
6
不需要降维
7
可决系数
8
超平面
9
深度学习是机器学习的一个分支
10
CID3算法中都会进行剪枝
11
所有数据都相互独立分布
12
样本较少但典型性好
13
随机森林学习过程分为选择样本、选择特征、构建决策树、投票四个部分
14
决策树
15
房价预测
16
决策树中除了根节点之外的其它节点统称为叶子节点
17
正态分布
18
欠拟合
19
Recall召回率
20
分类问题
21
梯度下降
22
K值越大越容易过拟合,因为分割过于细腻
23
学习到数据的特征过少
24
类试图将数据集中的样本划分为若干个子集,每个子集称为一个"簇"
25
k折交叉验证方法中的k不是超参数,是由模型训练得来的
26
交叉验证能够提升模型的准确率
27
余弦距离
28
线性回归不属于回归问题
29
朴素贝叶斯算法依赖于人工神经网格,因此使用起来非常复杂
30
0.25
31
参数学习
32
添加其他特征项
33
历史数据
34
逻辑回归一般要求变量服从正态分布,线性回归一般不要求
35
训练误差指的是在新样本上的误差
36
需要映射函数的具体形式
37
高斯核计算简单,不容易过拟合
38
在选取根节点时使用的是方差较小的那一维数据
39
使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
40
均方误差
41
回归问题知分类问题都有可能发生过拟合
42
连续型
43
使用样本数
44
相互独立
45
无数
46
让模型更快的收敛
47
特征选择无法避免维度爆炸的问题
48
拉普拉斯核
49
当σ(z)小于0.5时,预测 y=-1
50
聚类算法
51
朴素贝叶斯模型对输入数据的表达形式很敏感
52
数据清理
53
模型预测为正的负样本
54
决策树是一种监督式学习
55
StandardScaler
56
决策树
57
将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性可分
58
最近数据的距离
59
2
60
数据集越大过拟合概率越小
61
Xgboost
62
线性核函数、多项式核函数、高斯径向核函数
63
模拟人类学习活动
64
删除法、替换法、插值法
65
维数灾难
66
基尼
67
Lasso回归
68
伯努利
69
过拟合
70
支持向量
71
损失函数
72
核函数
73
datasets
74
平均
75
岭回归
76
样本、特征
77
Normalizer
78
训练误差、泛化误差
79
调参、超参数
80
精准率
81
超平面
82
训练
83
损失函数
84
信息增益
85
回归
86
5、7
87
准确率
88
过
89
正态
90
剪枝
91
最小二乘法
92
softmax
93
泛化
94
监督学习、非监督学习、半监督学习、强化学习
95
决策树
96
训练集
97
错
98
对
99
对
100
错
英语
英语
YUKI.N〉また図書館に · 187問 · 2年前英语
英语
187問 • 2年前华为ICT
华为ICT
YUKI.N〉また図書館に · 17問 · 2年前华为ICT
华为ICT
17問 • 2年前人工智能竞赛
人工智能竞赛
YUKI.N〉また図書館に · 100問 · 2年前人工智能竞赛
人工智能竞赛
100問 • 2年前人工智能竞赛1
人工智能竞赛1
YUKI.N〉また図書館に · 100問 · 2年前人工智能竞赛1
人工智能竞赛1
100問 • 2年前人工智能竞赛2
人工智能竞赛2
YUKI.N〉また図書館に · 100問 · 2年前人工智能竞赛2
人工智能竞赛2
100問 • 2年前人共智能竞赛3
人共智能竞赛3
YUKI.N〉また図書館に · 100問 · 2年前人共智能竞赛3
人共智能竞赛3
100問 • 2年前人工智能竞赛4
人工智能竞赛4
YUKI.N〉また図書館に · 100問 · 2年前人工智能竞赛4
人工智能竞赛4
100問 • 2年前人工智能竞赛5
人工智能竞赛5
YUKI.N〉また図書館に · 100問 · 2年前人工智能竞赛5
人工智能竞赛5
100問 • 2年前机器学习2
机器学习2
YUKI.N〉また図書館に · 41問 · 2年前机器学习2
机器学习2
41問 • 2年前图像处理1
图像处理1
YUKI.N〉また図書館に · 98問 · 2年前图像处理1
图像处理1
98問 • 2年前边缘智能应用
边缘智能应用
YUKI.N〉また図書館に · 99問 · 1年前边缘智能应用
边缘智能应用
99問 • 1年前边缘智能应用1
边缘智能应用1
YUKI.N〉また図書館に · 60問 · 1年前边缘智能应用1
边缘智能应用1
60問 • 1年前問題一覧
1
多分类问题
2
带状分布数据集
3
KNN
4
L1正则化可以做特征选择
5
TP/(FP+TP)
6
不需要降维
7
可决系数
8
超平面
9
深度学习是机器学习的一个分支
10
CID3算法中都会进行剪枝
11
所有数据都相互独立分布
12
样本较少但典型性好
13
随机森林学习过程分为选择样本、选择特征、构建决策树、投票四个部分
14
决策树
15
房价预测
16
决策树中除了根节点之外的其它节点统称为叶子节点
17
正态分布
18
欠拟合
19
Recall召回率
20
分类问题
21
梯度下降
22
K值越大越容易过拟合,因为分割过于细腻
23
学习到数据的特征过少
24
类试图将数据集中的样本划分为若干个子集,每个子集称为一个"簇"
25
k折交叉验证方法中的k不是超参数,是由模型训练得来的
26
交叉验证能够提升模型的准确率
27
余弦距离
28
线性回归不属于回归问题
29
朴素贝叶斯算法依赖于人工神经网格,因此使用起来非常复杂
30
0.25
31
参数学习
32
添加其他特征项
33
历史数据
34
逻辑回归一般要求变量服从正态分布,线性回归一般不要求
35
训练误差指的是在新样本上的误差
36
需要映射函数的具体形式
37
高斯核计算简单,不容易过拟合
38
在选取根节点时使用的是方差较小的那一维数据
39
使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
40
均方误差
41
回归问题知分类问题都有可能发生过拟合
42
连续型
43
使用样本数
44
相互独立
45
无数
46
让模型更快的收敛
47
特征选择无法避免维度爆炸的问题
48
拉普拉斯核
49
当σ(z)小于0.5时,预测 y=-1
50
聚类算法
51
朴素贝叶斯模型对输入数据的表达形式很敏感
52
数据清理
53
模型预测为正的负样本
54
决策树是一种监督式学习
55
StandardScaler
56
决策树
57
将样本从原始空间映射到一个更高维的特征空间,使样本在这个特征空间内线性可分
58
最近数据的距离
59
2
60
数据集越大过拟合概率越小
61
Xgboost
62
线性核函数、多项式核函数、高斯径向核函数
63
模拟人类学习活动
64
删除法、替换法、插值法
65
维数灾难
66
基尼
67
Lasso回归
68
伯努利
69
过拟合
70
支持向量
71
损失函数
72
核函数
73
datasets
74
平均
75
岭回归
76
样本、特征
77
Normalizer
78
训练误差、泛化误差
79
调参、超参数
80
精准率
81
超平面
82
训练
83
损失函数
84
信息增益
85
回归
86
5、7
87
准确率
88
过
89
正态
90
剪枝
91
最小二乘法
92
softmax
93
泛化
94
监督学习、非监督学习、半监督学习、强化学习
95
决策树
96
训练集
97
错
98
对
99
对
100
错