精确率(precision [prɪˈsɪʒən])、召回率(recall [rɪˈkɔ:l])、准确率(accuracy [ˈækjərəsi])
2018-11-20 12:37 于开帅
https://blog.csdn.net/weixin_38523904/article/details/84290578
继续阅读 »2018-11-20 12:37 于开帅
https://blog.csdn.net/weixin_38523904/article/details/84290578
继续阅读 »2018-11-20 09:21 LP小透明
在机器学习领域有最常见的三个指标:精度(Precision)、召回率(Recall)、F值(F-Measure)。 那么,这三个指标实际怎么用呢? 假设我们有某指标(如CN),计算出来的节点对相似性 > 0 >0 的边,用res表示。 而实际缺失的测试集的边用gr表示。 res和gr是是两个数组,类似于如下的格式。 res = [(1,3),(2,3)] gr = [(1,3),(1,2)] 好的,我们就举个例子。 那么,预测正确的是几个呢? 显然是1个,[(1,3)]。 也就是: co = len(se...
继续阅读 »2018-10-10 23:25 LP小透明
数据的标准化(normalization)是将数据按比例缩放,使之落入一个小的特定区间。 在某些比较和评价的指标处理中经常会用到,去除数据的单位限制,将其转化为无量纲的纯数值,便于不同单位或量级的指标能够进行比较和加权。 其中最典型的就是数据的归一化处理,即将数据统一映射到[0,1]区间上。 好处: 提升模型的收敛速度 提升模型的精度 Python版Sigmod函数: def sigmoid(x): ''' 归一化函数 ''' import numpy as np return 1.0 / (1.0...
继续阅读 »2018-11-19 21:29 LP小透明
''' 绘制动画 ''' import numpy as np import matplotlib.pyplot as plt from matplotlib import animation import networkx as nx import random fig, ax = plt.subplots() G = nx.Graph() G.add_edge(0,1) def init_network(): # nx.draw(G, node_size=10, node_color='c') re...
继续阅读 »2018-10-10 23:25 hxy
python for循环 控制步长: for i in range(0,10,2): print(i) 0 2 4 6 8 因此,倒序循环可以写作: for i in range(10,0,-1): print(i) for 循环 步长为小数: import numpy as np for i in np.arange(0,1,0.1): print(round(i,4)) 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Python 按字典的Value值排序 : 先说几个...
继续阅读 »