数据挖掘知识整理——【PART II】Apriori 和 FP-Growth

从这一篇开始进入了机器学习算法的巩固梳理,这也是非常有趣和重要的部分。

这一篇梳理Apriori以及FP-Growth算法,但主要讲FP-Growth算法,因为Apriori算法之前学习完后就做了笔记记录下来了。

机器学习

主要分为三种类型:

  • 监督学习:训练集数据中有类标号
  • 非监督学习:训练集数据中没有类标号
  • 半监督学习:训练集中有两种数据,一种有类标号,一种没有类标号,前者实例用来学习模型,后者实例用来进一步改进类边界

Apriori

Apriori 算法用来挖掘频繁模式,是一种聚类算法,也就是非监督性学习。

数据挖掘算法——Apriori 算法巩固与 Python 实现这篇文章中详细讲解了。

FP-Grwoth

FP-Grwoth 算法是 Apriori 的改进,因为 Apriori 主要存在两个比较严重的问题:

  • 产生大量的候选集
  • 每产生一个频繁项集,就要扫描一次数据库,I/O 开销大

于是,2000 年 Jiawei Han 等人提出了基于FP 树生成频繁项集的FP-Growth算法。该算法只进行 2 次数据库扫描且它不使用侯选集,直接压缩数据库成一个频繁模式树,最后挖掘这棵树找到所有的频繁项集。

需要注意的是:该算法可以高效的发现频繁项集,但是不能用于发现关联规则。

主要思想

FP-Grwoth 算法发现频繁项集主要有两个步骤:

  • 构建 FP 树:将代表频繁项集的数据库压缩到一棵 FP 树
  • 挖掘 FP 树:对每个项创建条件模式基,再挖掘条件 FP 树,最后产生频繁项集

在构建树之前,需要扫描一次数据库,生成频繁 1 项集

这里需要注意的是,如果一个事务中有多个相同的项,比如第一个事务中有 3 个相同的项「电脑」,那么该项「电脑」的支持度在第一个事务中的计数仍然是 1 不是 3。

具体的步骤可以参考这篇文章FP Tree算法原理总结,写得非常好非常详细。

代码实现

FP 树节点的定义:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
class treeNode:
def __init__(self, nameValue, numOccur, parentNode):
"""
:param nameValue: 结点名字
:param numOccur: 结点的计数
:param parentNode: 父节点,通常不使用这个结点
"""
self.name = nameValue
self.count = numOccur
self.nodeLink = None
self.parent = parentNode
self.children = {}
def inc(self, numOccur):
self.count += numOccur
def disp(self, ind=1):
print(" " * ind, self.name, ' ', self.count)
for child in self.children.values():
child.disp(ind + 1)

FP 树构建函数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
def createTree(dataSet, minSup=1):
"""
create FP tree
:param dataSet: 数据集
:param minSup: 最小支持度
:return:
"""
# 项头表
headerTable = {}
# 扫描数据库,对每个项计数
for trans in dataSet:
for item in trans:
headerTable[item] = headerTable.get(item, 0) + dataSet[trans]
# 生成频繁 1 项集
for k in headerTable.keys():
if headerTable[k] < minSup:
del (headerTable[k])
freqItemsSet = set(headerTable.keys())
if len(freqItemsSet) == 0:
return None, None
for k in headerTable:
headerTable[k] = [headerTable[k], None]
# 头结点
retTree = treeNode('Null Set', 1, None)
for tranSet, count in dataSet.items():
localD = {}
# 对每个事务中的项进行降序排序,只考虑在 L1 中有的项
for item in tranSet:
if item in freqItemsSet:
localD[item] = headerTable[item][0]
if len(localD) > 0:
orderedItems = [v[0] for v in sorted(localD.items(), key=lambda p: p[1], reverse=True)]
updateTree(orderedItems, retTree, headerTable, count)
return retTree, headerTable

更新树

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
def updateTree(items, inTree, headerTable, count):
"""
更新树
:type items: 已经排好序的项集
:type inTree: 当前树
:type headerTable: 头指针表
:type count: 每个项的计数
:rtype:
"""
# 如果该项集的第一个项在当前树中的子结点中则直接增加计数
# 如果没有就生成该项的子结点
if items[0] in inTree.children:
inTree.children[items[0]].inc(count)
else:
inTree.children[items[0]] = treeNode(items[0], count, inTree)
if headerTable[items[0]][1] == None:
headerTable[items[0]][1] = inTree.children[items[0]]
else:
updateHeader(headerTable[items[0]][1],
inTree.children[items[0]])
if len(items) > 1:
# 对剩下的项迭代调用 updateTree
updateTree(items[1::], inTree.children[items[0]], headerTable, count)
def updateHeader(nodeToTest, targetNode):
while (nodeToTest.nodeLink != None):
nodeToTest = nodeToTest.nodeLink
nodeToTest.nodeLink = targetNode

简单数据集集数据包装器

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
# 简单数据集集数据包装器
def loadSimpDat():
simpDat = [['r', 'z', 'h', 'j', 'p'],
['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],
['z'],
['r', 'x', 'n', 'o', 's'],
['y', 'r', 'x', 'z', 'q', 't', 'p'],
['y', 'z', 'x', 'e', 'q', 's', 't', 'm']]
return simpDat
def createInitSet(dataset):
retDict = {}
for trans in dataset:
# 集合不可更改 无add remove方法
retDict[frozenset(trans)] = 1
return retDict

有了 FP 树开始挖掘频繁项集

创建条件模式基:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
def ascendTree(leafNode, prefixPath):
if leafNode.parent != None: # 迭代上溯整颗树
prefixPath.append(leafNode.name)
ascendTree(leafNode.parent, prefixPath)
def findPrefixPath(basePat, treeNode):
condPats = {}
while treeNode != None:
prefixPath = []
ascendTree(treeNode, prefixPath)
if len(prefixPath) > 1:
condPats[frozenset(prefixPath[1:])] = treeNode.count
treeNode = treeNode.nodeLink
return condPats

创建条件 FP 树

1
2
3
4
5
6
7
8
9
10
11
12
13
14
def mineTree(inTree, headerTable, minSup, preFix, freqItemList):
bigL = [v[0] for v in sorted(headerTable.items(), key=lambda e: e[1])] # 从头指针表的底端开始
for basePat in bigL: # bigL为头指针,basePat为“t”,"r"等等
newFreqSet = preFix.copy()
newFreqSet.add(basePat)
freqItemList.append(newFreqSet)
condPattBases = findPrefixPath(basePat, headerTable[basePat][1]) # 创建“t”的条件模式基
myCondTree, myHead = createTree(condPattBases, minSup) # 以条件模式基构建条件FP树,得到的结果用于下一次迭代
if myHead != None: # myHead由createTree函数得到,本质是头指针表变量。
print("conditional tree for: ", newFreqSet)
myCondTree.disp(1)
mineTree(myCondTree, myHead, minSup, newFreqSet, freqItemList)

总结

FP-Growth 算法的速度非常快,但是当数据库很大时,构造基于主存的 FP 树有时是不现实的。一种解决方法是将数据库划分成投影数据库的集合,然后再每个投影数据库上构造 FP 树并在每个投影数据库上挖掘。

参考