Más sobre ciencia de datos en cienciadedatos.net
Versión PDF: Github
Los algoritmos de reglas de asociación tienen como objetivo encontrar relaciones dentro un conjunto de transacciones, en concreto, items o atributos que tienden a ocurrir de forma conjunta. En este contexto, el término transacción hace referencia a cada grupo de eventos que están asociados de alguna forma, por ejemplo:
La cesta de la compra en un supermercado.
Los libros que compra un cliente en una librería.
Las páginas web visitadas por un usuario.
Las características que aparecen de forma conjunta.
A cada uno de los eventos o elementos que forman parte de una transacción se le conoce como item y a un conjunto de ellos itemset. Una transacción puede estar formada por uno o varios items, en el caso de ser varios, cada posible subconjunto de ellos es un itemset distinto. Por ejemplo, la transacción T = {A,B,C} está formada por 3 items (A, B y C) y sus posibles itemsets son: {A,B,C}, {A,B}, {B,C}, {A,C}, {A}, {B} y {C}.
Una regla de asociación se define como una implicación del tipo “si X entonces Y” (\(X \Rightarrow Y\)), donde X e Y son itemsets o items individuales. El lado izquierdo de la regla recibe el nombre de antecedente o lenft-hand-side (LHS) y el lado derecho el nombre de consecuente o right-hand-side (RHS). Por ejemplo, la regla {A,B} => {C} significa que, cuando ocurren A y B, también ocurre C.
Existen varios algoritmos diseñados para identificar itemsets frecuentes y reglas de asociación. A continuación, se describen algunos de los más utilizados.
Apriori fue uno de los primeros algoritmos desarrollados para la búsqueda de reglas de asociación y sigue siendo uno de los más empleados, tiene dos etapas:
Identificar todos los itemsets que ocurren con una frecuencia por encima de un determinado límite (itemsets frecuentes).
Convertir esos itemsets frecuentes en reglas de asociación.
Con la finalidad de ilustrar el funcionamiento del algoritmo, se emplea un ejemplo sencillo. Supóngase la siguiente base de datos de un centro comercial en la que cada fila es una transacción. En este caso, el término transacción hace referencia a todos los productos comprados bajo un mismo ticket (misma cesta de la compra). Las letras A, B, C y D hacen referencia a 4 productos (items) distintos.
Transacción |
---|
{A, B, C, D} |
{A, B, D} |
{A, B} |
{B, C, D} |
{B, C} |
{C, D} |
{B, D} |
Antes de entrar en los detalles del algoritmo, conviene definir una serie de conceptos:
Soporte: El soporte del item o itemset X es el número de transacciones que contienen X dividido entre el total de transacciones.
Confianza: La confianza de una regla “Si X entonces Y” se define acorde a la ecuación \[\text{confianza(X=>Y)} = \frac{\text{soporte(unión(X,Y))}}{\text{soporte(X)}},\] donde unión(XY) es el itemset que contienen todos los items de X y de Y. La confianza se interpreta como la probabilidad P(Y|X), es decir, la probabilidad de que una transacción que contiene los items de X, también contenga los items de Y.
Volviendo al ejemplo del centro comercial, puede observarse que, el artículo A, aparece en 3 de las 7 transacciones, el artículo B en 6 y ambos artículos juntos en 3. El soporte del item {A} es por lo tanto del 43%, el del item {B} del 86% y del itemset {A, B} del 43%. De las 3 transacciones que incluyen A, las 3 incluyen B, por lo tanto, la regla “clientes que compran el artículo A también compran B”, se cumple, acorde a los datos, un 100% de las veces. Esto significa que la confianza de la regla {A => B} es del 100%.
Encontrar itemsets frecuentes (itemsets con una frecuencia mayor o igual a un determinado soporte mínimo) no es un proceso trivial debido la explosión combinatoria de posibilidades, sin embargo, una vez identificados, es relativamente directo generar reglas de asociación que presenten una confianza mínima. El algoritmo Apriori hace una búsqueda exhaustiva por niveles de complejidad (de menor a mayor tamaño de itemsets). Para reducir el espacio de búsqueda aplica la norma de “si un itemset no es frecuente, ninguno de sus supersets (itemsets de mayor tamaño que contengan al primero) puede ser frecuente”. Visto de otra forma, si un conjunto es infrecuente, entonces, todos los conjuntos donde este último se encuentre, también son infrecuentes. Por ejemplo, si el itemset {A,B} es infrecuente, entonces, {A,B,C} y {A,B,E} también son infrecuentes ya que todos ellos contienen {A,B}.
El funcionamiento del algoritmo es sencillo, se inicia identificando los items individuales que aparecen en el total de transacciones con una frecuencia por encima de un mínimo establecido por el usuario. A continuación, se sigue una estrategia bottom-up en la que se extienden los candidatos añadiendo un nuevo item y se eliminan aquellos que contienen un subconjunto infrecuente o que no alcanzan el soporte mínimo. Este proceso se repite hasta que el algoritmo no encuentra más ampliaciones exitosas de los itemsets previos o cuando se alcanza un tamaño máximo.
Se procede a identificar los itemsets frecuentes y, a partir de ellos, crear reglas de asociación.
Transacción |
---|
{A, B, C, D} |
{A, B, D} |
{A, B} |
{B, C, D} |
{B, C} |
{C, D} |
{B, D} |
Para este problema se considera que un item o itemset es frecuente si aparece en un mínimo de 3 transacciones, es decir, su soporte debe de ser igual o superior a 3/7 = 0.43. Se inicia el algoritmo identificando todos los items individuales (itemsets de un único item) y calculando su soporte.
Itemset (k=1) | Ocurrencias | Soporte |
---|---|---|
{A} | 3 | 0.43 |
{B} | 6 | 0.86 |
{C} | 4 | 0.57 |
{D} | 5 | 0.71 |
Todos los itemsets de tamaño k = 1 tienen un soporte igual o superior al mínimo establecido, por lo que todos superan la fase de filtrado (poda).
A continuación, se generan todos los posibles itemsets de tamaño k = 2 que se pueden crear con los itemsets que han superado el paso anterior y se calcula su soporte.
Itemset (k=2) | Ocurrencias | Soporte |
---|---|---|
{A, B} | 3 | 0.43 |
{A, C} | 1 | 0.14 |
{A, D} | 2 | 0.29 |
{B, C} | 3 | 0.43 |
{B, D} | 4 | 0.57 |
{C, D} | 3 | 0.43 |
Los itemsets {A, B}, {B, C}, {B, D} y {C, D} superan el límite de soporte, por lo que son frecuentes. Los itemsets {A, C} y {A, D} no superan el soporte mínimo por lo que se descartan. Además, cualquier futuro itemset que los contenga también será descartado ya que no puede ser frecuente por el hecho de que contiene un subconjunto infrecuente.
Itemset (k=2) | Ocurrencias | Soporte |
---|---|---|
{A, B} | 3 | 0.43 |
{B, C} | 3 | 0.43 |
{B, D} | 4 | 0.57 |
{C, D} | 3 | 0.43 |
Se repite el proceso, esta vez creando itemsets de tamaño k = 3.
Itemset (k=3) |
---|
{A, B, C} |
{A, B, D} |
{B, C, D} |
{C, D, A} |
Los itemsets {A, B, C}, {A, B, D} y {C, D, A} contienen subconjuntos infrecuentes, por lo que son descartados. Para los restantes se calcula su soporte.
Itemset (k=3) | Ocurrencias | Soporte |
---|---|---|
{B, C, D} | 2 | 0.29 |
El items {B, C, D} no supera el soporte mínimo por lo que se considera infrecuente. Al no haber ningún nuevo itemset frecuente, se detiene el algoritmo.
Como resultado de la búsqueda se han identificado los siguientes itemsets frecuentes:
Itemset frecuentes |
---|
{A, B} |
{B, C} |
{B, D} |
{C, D} |
El siguiente paso es crear las reglas de asociación a partir de cada uno de los itemsets frecuentes. De nuevo, se produce una explosión combinatoria de posibles reglas ya que, de cada itemset frecuente, se generan tantas reglas como posibles particiones binarias. En concreto, el proceso seguido es el siguiente:
Por cada itemset frecuente I, obtener todos los posibles subsets de I.
1.1 Para cada subset s de I, crear la regla “s => (I-s)”
Descartar todas las reglas que no superen un mínimo de confianza.
Supóngase que se desean únicamente reglas con una confianza igual o superior a 0.7, es decir, que la regla se cumpla un 70% de las veces. Tal y como se describió anteriormente, la confianza de una regla se calcula como el soporte del itemset formado por todos los items que participan en la regla, dividido por el soporte del itemset formado por los items del antecedente.
Reglas | Confianza | Confianza |
---|---|---|
{A} => {B} | soporte{A, B} / soporte {A} | 0.43 / 0.43 = 1 |
{B} => {A} | soporte{A, B} / soporte {B} | 0.43 / 0.86 = 0.5 |
{B} => {C} | soporte{B, C} / soporte {B} | 0.43 / 0.86 = 0.5 |
{C} => {B} | soporte{B, C} / soporte {C} | 0.43 / 0.57 = 0.75 |
{B} => {D} | soporte{B, D} / soporte {B} | 0.43 / 0.86 = 0.5 |
{D} => {B} | soporte{B, D} / soporte {D} | 0.43 / 0.71 = 0.6 |
{C} => {D} | soporte{C, D} / soporte {C} | 0.43 / 0.57 = 0.75 |
{D} => {C} | soporte{C, D} / soporte {D} | 0.43 / 0.71 = 0.6 |
De todas las posibles reglas, únicamente {C} => {D} y {C} => {B} superan el límite de confianza.
La principal desventaja de algoritmo Apriori es el número de veces que se tienen que escanear los datos en busca de los itemsets frecuentes, en concreto, el algoritmo escanea todas las transacciones un total de \(k_{max}\)+1, donde \(k_{max}\) es el tamaño máximo de itemset permitido. Esto hace que el algoritmo Apriori no pueda aplicarse en situaciones con millones de registros, sin embargo, se han desarrollado adaptaciones (FP-growth, Eclat, Hash-Based, partitioning, etc) que solucionan esta limitación.
Los investigadores Han et al. propusieron en el 2000 un nuevo algoritmo llamado FP-Growth que permite extraer reglas de asociación a partir de itemsets frecuentes pero, a diferencia del algoritmo Apriori, estos se identifican sin necesidad de generar candidatos para cada tamaño.
En términos generales, el algoritmo emplea una estructura de árbol (Frequent Pattern Tree) donde almacena toda la información de las transacciones. Esta estructura permite comprimir la información de una base de datos de transacciones hasta 200 veces, haciendo posible que pueda ser cargada en memoria RAM. Una vez que la base de datos ha sido comprimida en una estructura FP-Tree, se divide en varias bases de datos condicionales, cada una asociada con un patrón frecuente. Finalmente, cada partición se analiza de forma separada y se concatenan los resultados obtenidos. En la mayoría de casos, FP-Growth es más rápido que Apriori.
En el 2000, Zaki propuso un nuevo algoritmo para encontrar patrones frecuentes (itemsets frecuentes) llamado Equivalence Class Transformation (Eclat). La principal diferencia entre este algoritmo y Apriori es la forma en que se escanean y analizan los datos. El algoritmo Apriori emplea transacciones almacenadas de forma horizontal, es decir, todos los elementos que forman una misma transacción están en la misma línea. El algoritmo Eclat, sin embargo, analiza las transacciones en formato vertical, donde cada línea contiene un item y las transacciones en las que aparece ese item.
Para ilustrar el funcionamiento del algoritmo Eclat, se muestra un ejemplo simplificado. La siguiente tabla contiene la información de las transacciones en formato horizontal. El soporte mínimo para considerar un itemset frecuente es del 20%.
Transacción | Items |
---|---|
T1 | i4,i5 |
T2 | i1,i3,i4,i5 |
T3 | i1,i3,i5 |
T4 | i3,i4 |
T5 | i3,i4 |
T6 | i4,i5 |
T7 | i2,i3,i5 |
T8 | i2,i5 |
T9 | i3,i4,i5 |
En primer lugar, el algoritmo identifica los items que aparecen en el conjunto de todas las transacciones y los emplea para crear la primera columna de una nueva tabla. A continuación, se añade a cada item el identificador de las transacciones en las que aparece y se calcula su soporte. La siguiente tabla muestra el resultado de reestructurar los datos de formato horizontal a vertical.
Itemset (k = 1) | Transacciones | Soporte |
---|---|---|
{i1} | T2,T3 | 0.22 |
{i2} | T7,T8 | 0.22 |
{i3} | T2,T3,T4,T5,T7,T9 | 0.66 |
{i4} | T1,T2,T4,T5,T6,T9 | 0.66 |
{i5} | T1,T2,T3,T6,T7,T8,T9 | 0.77 |
Calculando todas las posibles intersecciones de la columna Transacciones de la tabla k=1 se obtienen los itemsets de longitud k+1.
Itemset (k = 2) | Transacciones | Soporte |
---|---|---|
{i1,i3} | T2,T3 | 0.22 |
{i1,i4} | T2 | 0.11 |
{i1,i5} | T2,T3 | 0.22 |
{i2,i3} | T7 | 0.11 |
{i2,i5} | T7,T8 | 0.22 |
{i3,i4} | T2,T4,T5,T9 | 0.44 |
{i3,i5} | T2,T3,T7,T9 | 0.44 |
{i4,i5} | T1,T2,T6,T9 | 0.44 |
De nuevo, con las intersecciones de las transacciones de la tabla Itemset (k = 2) se obtienen los itemsets k = 3. Gracias al principio downward closure, no es necesario realizar la intersección de {i1,i5} e {i4,i5} ya que {i1,i4} no es frecuente y por lo tanto tampoco lo es {i1,i4,i5}.
Itemset (k = 3) | Transacciones | Soporte |
---|---|---|
{i1,i3,i5} | T2,T3 | 0.22 |
{i3,i4,i5} | T2,T9 | 0.22 |
El algoritmo finaliza cuando no hay más itemsets frecuentes.
Cabe destacar que, el algoritmo Eclat, permite la identificación de itemsets frecuentes pero no genera reglas de asociación. A pesar de ello, una vez identificados los itemsets frecuentes, se puede aplicar la segunda parte del algoritmo Apriori para obtenerlas.
El paquete de R arules
implementa el algoritmo Apriori para la identificación de itemsets frecuentes y la creación de reglas de asociación a través de la función apriori()
. También implementa el algoritmo Eclat con la función eclat()
.
Tanto apriori()
como eclat()
reciben como argumento un objeto transaction
con los datos de las transacciones, un argumento parameter
que determina las características de los itemsets o reglas generadas (por ejemplo, el soporte mínimo) y un argumento control
que determina el comportamiento del algoritmo (por ejemplo, ordenación de los resultados). La función apriori()
también se incluye el argumento aparence
que impone restricciones sobre las reglas generadas, por ejemplo, crear solo reglas que contengan un determinado item. El resultado de ambas funciones es un objeto de tipo association
que puede ser manipulado con toda una serie de funciones que ofrece arules
. Entre las principales destacan:
summary()
: muestra un resumen de los resultados.
inspect()
: muestra los resultados.
length()
: número de elementos (reglas o itemsets) almacenados.
items()
: extrae los items que forman un itemset o una regla. En el caso de reglas, combina los items de antecedente (LHS) y del consecuente (RHS). .
sort()
: ordena los resultados.
subset
: filtrado de los resultados.
Supóngase que se dispone del registro de todas las compras que se han realizado en un supermercado. El objetivo del análisis es identificar productos que tiendan a comprarse de forma conjunta para así poder situarlos en posiciones cercanas dentro de la tienda y maximizar la probabilidad de que los clientes compren.
Para este ejemplo se emplea el set de datos Groceries
del paquete arules
, que contiene un registro de todas las ventas realizadas por un supermercado durante 30 días. En total se dispone de 9835 transacciones formadas por combinaciones de 169 productos. El objeto Groceries
almacena la información en un formato propio de este paquete (descrito más adelante). Para representar mejor lo que suele ocurrir en la práctica, se ha reestructurado la información en formato de tabla. Los datos pueden encontrarse en Github.
library(tidyverse)
datos <- read_csv(file = "./datos/datos_groceries.csv", col_names = TRUE)
head(datos)
Cada línea del archivo contiene la información de un item y el identificador de la transacción (compra) a la que pertenece. Esta es la estructura en la que comúnmente se almacenan los datos dentro de una base de datos y que, en el ámbito de las transacciones, recibe el nombre de tabla larga o single. Otra forma en la que se pueden encontrar los datos de transacciones es en formato matriz o tabla ancha, en el que cada fila contiene todos los items que forman parte de una misma transacción, este formato recibe el nombre de cesta o basket.
Tal y como se ha definido previamente, el concepto de transacción hace referencia al conjunto de items o eventos que ocurren de forma conjunta. Para este caso de estudio, compras de supermercado, cada transacción está formada por todos los productos que se compran a la vez, es decir, el vínculo de unión no es el cliente sino cada una de las “cestas de la compra”. Por ejemplo, la transacción con id_compra == 14
está formada por 3 items.
## [1] "frankfurter" "rolls/buns" "soda"
Con la función read.transactions()
se pueden leer directamente los datos de archivos tipo texto y almacenarlos en un objeto de tipo transactions
, que es la estructura de almacenamiento que emplea arules
. Esta función tiene los siguientes argumentos:
file
: nombre del archivo que se quiere leer.
format
: estructura en la que se encuentran almacenados los datos, “basket” si cada línea del archivo es una transacción completa, o “single” si cada línea representa un item.
sep
: tipo de separación de los campos.
cols
: si el formato es de tipo “basket”, un entero que indica la columna que contiene el identificador de las transacciones. Para el formato “single”, es un vector con los nombres (o posiciones) de las dos columnas que identifican las transacciones y los items, respectivamente.
rm.duplicates
: valor lógico indicando si se eliminan los items duplicados en una misma transacción. Por lo general, es conveniente eliminarlos, el interés suele estar en qué items ocurren de forma conjunta, no en qué cantidad.
quote
: carácter que se utiliza como comillas.
skip
: número de líneas que hay que saltar desde el comienzo del fichero.
Es importante recordar que los objetos de tipo transactions
solo trabajan con información booleana, es decir, con la presencia o no de cada uno de los items en la transacción. Por lo tanto, si el set de datos contiene variables numéricas, estas deben de ser discretizadas en intervalos o niveles. Para discretizar una variable numérica, se puede emplear la función discretize()
o bien otras alternativas como la función case_when()
del paquete dplyr
.
Los objetos transactions
, se almacenan internamente como un tipo de matriz binaria. Se trata de una matriz de valores 0/1, con una fila por cada transacción, en este caso cada compra, y una columna por cada posible item, en este caso productos. La posición de la matriz (i,j) tiene el valor 1 si la transacción i contiene el item j.
# IMPORTACIÓN DIRECTA DE LOS DATOS A UN OBJETO TIPO TRANSACTION
# ==============================================================================
library(arules)
transacciones <- read.transactions(file = "./datos/datos_groceries.csv",
format = "single",
sep = ",",
header = TRUE,
cols = c("id_compra", "item"),
rm.duplicates = TRUE)
transacciones
## transactions in sparse format with
## 9835 transactions (rows) and
## 169 items (columns)
## [1] "abrasive cleaner" "artif. sweetener" "baby cosmetics" "baby food"
## [5] "bags"
## [1] "1" "10" "100" "1000" "1001"
También es posible convertir un objeto dataframe
en uno de tipo transactions
con la función as(dataframe, "transactions")
. Para lograrlo, primero hay que convertir el dataframe
en una lista en la que cada elemento contiene los items de una transacción. Este proceso puede ser muy lento si el dataframe
tiene muchos registros, por lo que suele ser mejor crear un archivo de texto con los datos e importarlo mediante read.transactions()
.
# CONVERSIÓN DE UN DATAFRAME A UN OBJETO TIPO TRANSACTION
# ==============================================================================
# Se convierte el dataframe a una lista en la que cada elemento contiene los
# items de una transacción
datos_split <- split(x = datos$item, f = datos$id_compra)
transacciones <- as(datos_split, Class = "transactions")
transacciones
## transactions in sparse format with
## 9835 transactions (rows) and
## 169 items (columns)
Otra alternativa es convertir el dataframe
en una matriz 0/1 en la que cada fila es una transacción y cada columna uno de los posibles items.
# CONVERSIÓN DE UNA MATRIZ A UN OBJETO TIPO TRANSACTION
# ==============================================================================
datos_matriz <- datos %>%
as.data.frame() %>%
mutate(valor = 1) %>%
spread(key = item, value = valor, fill = 0) %>%
column_to_rownames(var = "id_compra") %>%
as.matrix()
transacciones <- as(datos_matriz, Class = "transactions")
transacciones
## transactions in sparse format with
## 9835 transactions (rows) and
## 169 items (columns)
Uno de los primeros análisis que conviene realizar cuando se trabaja con transacciones es explorar su contenido y tamaño, es decir, el número de items que las forman y cuáles son. Mediante la función inspect()
se muestran los items que forman cada transacción.
## items transactionID
## [1] {citrus fruit,
## margarine,
## ready soups,
## semi-finished bread} 1
## [2] {coffee,
## tropical fruit,
## yogurt} 2
## [3] {whole milk} 3
## [4] {cream cheese,
## meat spreads,
## pip fruit,
## yogurt} 4
## [5] {condensed milk,
## long life bakery product,
## other vegetables,
## whole milk} 5
También es posible mostrar los resultados en formato de dataframe con la función DATAFRAME()
o con as(transacciones, "dataframe")
.
df_transacciones <- as(transacciones, Class = "data.frame")
# Para que el tamaño de la tabla se ajuste mejor, se convierte el dataframe a tibble
as.tibble(df_transacciones) %>% head()
Para extraer el tamaño de cada transacción se emplea la función size()
.
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 1.000 2.000 3.000 4.409 6.000 32.000
## 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
## 1 1 1 2 3 3 4 5 7 9 32
data.frame(tamanyos) %>%
ggplot(aes(x = tamanyos)) +
geom_histogram() +
labs(title = "Distribución del tamaño de las transacciones",
x = "Tamaño") +
theme_bw()
La gran mayoría de clientes compra entre 3 y 4 productos y el 90% de ellos compra como máximo 9.
El siguiente análisis básico consiste en identificar cuáles son los items más frecuentes (los que tienen mayor soporte) dentro del conjunto de todas las transacciones. Con la función itemFrequency()
se puede extraer esta información de un objeto tipo transactions
. El nombre de esta función puede causar confusión. Por “frecuencia” se hace referencia al soporte de cada item, que es la fracción de transacciones que contienen dicho item respecto al total de todas las transacciones. Esto es distinto a la frecuencia de un item respecto al total de items, de ahí que la suma de todos los soportes no sea 1.
frecuencia_items <- itemFrequency(x = transacciones, type = "relative")
frecuencia_items %>% sort(decreasing = TRUE) %>% head(5)
## whole milk other vegetables rolls/buns soda
## 0.2555160 0.1934926 0.1839349 0.1743772
## yogurt
## 0.1395018
Si se indica el argumento type = "absolute"
, la función itemFrequency()
devuelve el número de transacciones en las que aparece cada item.
frecuencia_items <- itemFrequency(x = transacciones, type = "absolute")
frecuencia_items %>% sort(decreasing = TRUE) %>% head(5)
## whole milk other vegetables rolls/buns soda
## 2513 1903 1809 1715
## yogurt
## 1372
El listado anterior muestra que los 5 productos que más se venden son: whole milk, other vegetables, rolls/buns y soda.
Es muy importante estudiar cómo se distribuye el soporte de los items individuales en un conjunto de transacciones antes identificar itemsets frecuentes o crear reglas de asociación, ya que, dependiendo del caso, tendrá sentido emplear un límite de soporte u otro. Por lo general, cuando el número de posibles items es muy grande (varios miles) prácticamente todos los artículos son raros, por lo que los soportes son muy bajos.
Con la función apriori()
se puede aplicar el algoritmo Apriori a un objeto de tipo transactions
y extraer tanto itemsets frecuentes como reglas de asociación que superen un determinado soporte y confianza. Los argumentos de esta función son:
data
: un objeto del tipo transactions
o un objeto que pueda ser convertido a tipo transactions
, por ejemplo un dataframe o una matriz binaria.
parameter
: lista en la que se indican los parámetros del algoritmo.
support
: soporte mínimo que debe tener un itemset para ser considerado frecuente. Por defecto es 0.1.
minlen
: número mínimo de items que debe tener un itemset para ser incluido en los resultados. Por defecto 1.
maxlen
: número máximo de items que puede tener un itemset para ser incluido en los resultados. Por defecto 10.
target
: tipo de resultados que debe de generar el algoritmo, pueden ser “frequent itemsets”, “maximally frequent itemsets”, “closed frequent itemsets”, “rules” o “hyperedgesets”.
confidence
: confianza mínima que debe de tener una regla para ser incluida en los resultados. Por defecto 0.8.
maxtime
: tiempo máximo que puede estar el algoritmo buscando subsets. Por defecto 5 segundos.
appearance
: lista que permite definir patrones para restringir el espacio de búsqueda, por ejemplo, especificando qué items pueden o no pueden aparecer.
control
: lista que permite modificar aspectos internos de algoritmo como la ordenación de los itemsets, si se construye un árbol con las transacciones, aspectos relacionados con el uso de memoria, etc.
Se procede a extraer aquellos itemsets, incluidos los formados por un único item, que hayan sido comprados al menos 30 veces. En un caso real, este valor sería excesivamente bajo si se tiene en cuenta la cantidad total de transacciones, sin embargo, se emplea 30 para que en los resultados aparezcan un número suficiente de itemsets y reglas de asociación que permitan mostrar las posibilidades de análisis que ofrece el paquete arules
.
soporte <- 30 / dim(transacciones)[1]
itemsets <- apriori(data = transacciones,
parameter = list(support = soporte,
minlen = 1,
maxlen = 20,
target = "frequent itemset"))
## Apriori
##
## Parameter specification:
## confidence minval smax arem aval originalSupport maxtime support minlen
## NA 0.1 1 none FALSE TRUE 5 0.00305033 1
## maxlen target ext
## 20 frequent itemsets TRUE
##
## Algorithmic control:
## filter tree heap memopt load sort verbose
## 0.1 TRUE TRUE FALSE TRUE 2 TRUE
##
## Absolute minimum support count: 30
##
## set item appearances ...[0 item(s)] done [0.00s].
## set transactions ...[169 item(s), 9835 transaction(s)] done [0.00s].
## sorting and recoding items ... [136 item(s)] done [0.00s].
## creating transaction tree ... done [0.00s].
## checking subsets of size 1 2 3 4 5 done [0.00s].
## sorting transactions ... done [0.00s].
## writing ... [2226 set(s)] done [0.00s].
## creating S4 object ... done [0.00s].
## set of 2226 itemsets
##
## most frequent items:
## whole milk other vegetables yogurt root vegetables
## 556 468 316 251
## rolls/buns (Other)
## 241 3536
##
## element (itemset/transaction) length distribution:sizes
## 1 2 3 4 5
## 136 1140 850 98 2
##
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 1.000 2.000 2.000 2.412 3.000 5.000
##
## summary of quality measures:
## support transIdenticalToItemsets count
## Min. :0.003050 Min. :0.0000000 Min. : 30.00
## 1st Qu.:0.003660 1st Qu.:0.0000000 1st Qu.: 36.00
## Median :0.004779 Median :0.0000000 Median : 47.00
## Mean :0.007879 Mean :0.0001613 Mean : 77.49
## 3rd Qu.:0.007219 3rd Qu.:0.0001017 3rd Qu.: 71.00
## Max. :0.255516 Max. :0.0265379 Max. :2513.00
##
## includes transaction ID lists: FALSE
##
## mining info:
## data ntransactions support confidence
## transacciones 9835 0.00305033 1
Se han encontrado un total de 2226 itemsets frecuentes que superan el soporte mínimo de 0.003908286, la mayoría de ellos (1140) formados por dos items. En el siguiente listado se muestran los 20 itemsets con mayor soporte que, como cabe esperar, son los formados por items individuales (los itemsets de menor tamaño).
# Se muestran los top 20 itemsets de mayor a menor soporte
top_20_itemsets <- sort(itemsets, by = "support", decreasing = TRUE)[1:20]
inspect(top_20_itemsets)
## items support transIdenticalToItemsets count
## [1] {whole milk} 0.25551601 0.0125063549 2513
## [2] {other vegetables} 0.19349263 0.0063040163 1903
## [3] {rolls/buns} 0.18393493 0.0111845450 1809
## [4] {soda} 0.17437722 0.0162684291 1715
## [5] {yogurt} 0.13950178 0.0040671073 1372
## [6] {bottled water} 0.11052364 0.0068124047 1087
## [7] {root vegetables} 0.10899847 0.0025419420 1072
## [8] {tropical fruit} 0.10493137 0.0023385867 1032
## [9] {shopping bags} 0.09852567 0.0048805287 969
## [10] {sausage} 0.09395018 0.0024402644 924
## [11] {pastry} 0.08896797 0.0037620742 875
## [12] {citrus fruit} 0.08276563 0.0017285206 814
## [13] {bottled beer} 0.08052872 0.0124046772 792
## [14] {newspapers} 0.07981698 0.0055922725 785
## [15] {canned beer} 0.07768175 0.0265378749 764
## [16] {pip fruit} 0.07564820 0.0028469751 744
## [17] {other vegetables,whole milk} 0.07483477 0.0006100661 736
## [18] {fruit/vegetable juice} 0.07229283 0.0022369090 711
## [19] {whipped/sour cream} 0.07168277 0.0026436197 705
## [20] {brown bread} 0.06487036 0.0021352313 638
# Para representarlos con ggplot se convierte a dataframe
as(top_20_itemsets, Class = "data.frame") %>%
ggplot(aes(x = reorder(items, support), y = support)) +
geom_col() +
coord_flip() +
labs(title = "Itemsets más frecuentes", x = "itemsets") +
theme_bw()
Si se quieren excluir del análisis los itemsets formados únicamente por un solo item, se puede, o bien aplicar de nuevo la función apriori()
especificando minlen = 2
, o filtrar los resultados con la función size()
.
# Se muestran los 20 itemsets más frecuentes formados por más de un item.
inspect(sort(itemsets[size(itemsets) > 1], decreasing = TRUE)[1:20])
## items support transIdenticalToItemsets
## [1] {other vegetables,whole milk} 0.07483477 0.0006100661
## [2] {rolls/buns,whole milk} 0.05663447 0.0013218099
## [3] {whole milk,yogurt} 0.05602440 0.0008134215
## [4] {root vegetables,whole milk} 0.04890696 0.0003050330
## [5] {other vegetables,root vegetables} 0.04738180 0.0006100661
## [6] {other vegetables,yogurt} 0.04341637 0.0004067107
## [7] {other vegetables,rolls/buns} 0.04260295 0.0008134215
## [8] {tropical fruit,whole milk} 0.04229792 0.0008134215
## [9] {soda,whole milk} 0.04006101 0.0007117438
## [10] {rolls/buns,soda} 0.03833249 0.0023385867
## [11] {other vegetables,tropical fruit} 0.03589222 0.0005083884
## [12] {bottled water,whole milk} 0.03436706 0.0007117438
## [13] {rolls/buns,yogurt} 0.03436706 0.0010167768
## [14] {pastry,whole milk} 0.03324860 0.0012201322
## [15] {other vegetables,soda} 0.03274021 0.0001016777
## [16] {whipped/sour cream,whole milk} 0.03223183 0.0008134215
## [17] {rolls/buns,sausage} 0.03060498 0.0013218099
## [18] {citrus fruit,whole milk} 0.03050330 0.0003050330
## [19] {pip fruit,whole milk} 0.03009659 0.0004067107
## [20] {domestic eggs,whole milk} 0.02999492 0.0003050330
## count
## [1] 736
## [2] 557
## [3] 551
## [4] 481
## [5] 466
## [6] 427
## [7] 419
## [8] 416
## [9] 394
## [10] 377
## [11] 353
## [12] 338
## [13] 338
## [14] 327
## [15] 322
## [16] 317
## [17] 301
## [18] 300
## [19] 296
## [20] 295
Una vez que los itemsets frecuentes han sido identificados mediante el algoritmo Apripori, pueden ser filtrados con la función subset()
. Esta función recibe dos argumentos: un objeto itemset
o rules
y una condición lógica que tienen que cumplir las reglas/itemsets para ser seleccionados. La siguiente tabla muestra los operadores permitidos:
Operador | Significado |
---|---|
& | AND |
%in% | contiene cualquier de los siguientes elementos |
%ain% | contiene todos de los siguientes elementos |
%pin% | contiene parcialmente los siguientes elementos |
Como esta función tiene el mismo nombre que una función del paquete básico de R, para evitar errores, es conveniente especificar el paquete donde se encuentra.
Se procede a identificar aquellos itemsets frecuentes que contienen el item newspapers.
## set of 80 itemsets
## items support transIdenticalToItemsets
## [1] {newspapers} 0.079816980 0.0055922725
## [2] {meat,newspapers} 0.003050330 0.0001016777
## [3] {newspapers,sliced cheese} 0.003152008 0.0000000000
## [4] {newspapers,UHT-milk} 0.004270463 0.0001016777
## [5] {newspapers,oil} 0.003152008 0.0000000000
## [6] {newspapers,onions} 0.003152008 0.0000000000
## [7] {hygiene articles,newspapers} 0.003050330 0.0000000000
## [8] {newspapers,sugar} 0.003152008 0.0000000000
## [9] {newspapers,waffles} 0.004168785 0.0001016777
## [10] {long life bakery product,newspapers} 0.003457041 0.0002033554
## count
## [1] 785
## [2] 30
## [3] 31
## [4] 42
## [5] 31
## [6] 31
## [7] 30
## [8] 31
## [9] 41
## [10] 34
Se repite el proceso pero, esta vez, con aquellos itemsets que contienen newspapers y whole milk.
itemsets_filtrado <- arules::subset(itemsets,
subset = items %ain% c("newspapers", "whole milk"))
itemsets_filtrado
## set of 16 itemsets
## items support
## [1] {newspapers,whole milk} 0.027351296
## [2] {chocolate,newspapers,whole milk} 0.003152008
## [3] {brown bread,newspapers,whole milk} 0.004067107
## [4] {margarine,newspapers,whole milk} 0.003152008
## [5] {butter,newspapers,whole milk} 0.003152008
## [6] {newspapers,pastry,whole milk} 0.003863752
## [7] {citrus fruit,newspapers,whole milk} 0.003355363
## [8] {newspapers,sausage,whole milk} 0.003050330
## [9] {bottled water,newspapers,whole milk} 0.004067107
## [10] {newspapers,tropical fruit,whole milk} 0.005083884
## transIdenticalToItemsets count
## [1] 0.0008134215 269
## [2] 0.0000000000 31
## [3] 0.0002033554 40
## [4] 0.0000000000 31
## [5] 0.0001016777 31
## [6] 0.0003050330 38
## [7] 0.0000000000 33
## [8] 0.0000000000 30
## [9] 0.0001016777 40
## [10] 0.0001016777 50
Puede observarse que muchos itemsets están a su vez contenidos en itemsets de orden superior, es decir, existen itemsets que son subsets de otros. Para identificar cuáles son, o cuales no lo son, se puede emplear la función is.subset()
. Encontrar los itemsets que son subsets de otros itemsets implica comparar todos los pares de itemsets y determinar si uno está contenido en el otro. La función is.subset()
realiza comparaciones entre dos conjuntos de itemsets y devuelve una matriz lógica que determina si el itemset de la fila está contenido en cada itemset de las columnas.
# Para encontrar los subsets dentro de un conjunto de itemsets, se compara el
# conjunto de itemsets con sigo mismo.
subsets <- is.subset(x = itemsets, y = itemsets, sparse = FALSE)
Para conocer el total de itemsets que son subsets de otros itemsets se cuenta el número total de TRUE
en la matriz resultante.
## [1] 11038
Para crear las reglas de asociación se sigue el mismo proceso que para obtener itemsets frecuentes pero, además de especificar un soporte mínimo, se tiene que establecer una confianza mínima para que una regla se incluya en los resultados. En este caso, se emplea una confianza mínima del 70%.
soporte <- 30 / dim(transacciones)[1]
reglas <- apriori(data = transacciones,
parameter = list(support = soporte,
confidence = 0.70,
# Se especifica que se creen reglas
target = "rules"))
## Apriori
##
## Parameter specification:
## confidence minval smax arem aval originalSupport maxtime support minlen
## 0.7 0.1 1 none FALSE TRUE 5 0.00305033 1
## maxlen target ext
## 10 rules TRUE
##
## Algorithmic control:
## filter tree heap memopt load sort verbose
## 0.1 TRUE TRUE FALSE TRUE 2 TRUE
##
## Absolute minimum support count: 30
##
## set item appearances ...[0 item(s)] done [0.00s].
## set transactions ...[169 item(s), 9835 transaction(s)] done [0.00s].
## sorting and recoding items ... [136 item(s)] done [0.00s].
## creating transaction tree ... done [0.00s].
## checking subsets of size 1 2 3 4 5 done [0.00s].
## writing ... [19 rule(s)] done [0.00s].
## creating S4 object ... done [0.00s].
## set of 19 rules
##
## rule length distribution (lhs + rhs):sizes
## 3 4 5
## 7 9 3
##
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 3.000 3.000 4.000 3.789 4.000 5.000
##
## summary of quality measures:
## support confidence coverage lift
## Min. :0.003050 Min. :0.7000 Min. :0.003559 Min. :2.740
## 1st Qu.:0.003203 1st Qu.:0.7047 1st Qu.:0.004525 1st Qu.:2.758
## Median :0.003559 Median :0.7164 Median :0.004982 Median :2.804
## Mean :0.003767 Mean :0.7373 Mean :0.005143 Mean :3.044
## 3rd Qu.:0.004169 3rd Qu.:0.7500 3rd Qu.:0.005592 3rd Qu.:2.984
## Max. :0.005694 Max. :0.8857 Max. :0.008134 Max. :4.578
## count
## Min. :30.00
## 1st Qu.:31.50
## Median :35.00
## Mean :37.05
## 3rd Qu.:41.00
## Max. :56.00
##
## mining info:
## data ntransactions support confidence
## transacciones 9835 0.00305033 0.7
Se han identificado un total de 19 reglas, la mayoría de ellas formadas por 4 items en el antecedente (parte izquierda de la regla).
## lhs rhs support confidence coverage lift count
## [1] {citrus fruit,
## root vegetables,
## tropical fruit,
## whole milk} => {other vegetables} 0.003152008 0.8857143 0.003558719 4.577509 31
## [2] {butter,
## root vegetables,
## yogurt} => {whole milk} 0.003050330 0.7894737 0.003863752 3.089723 30
## [3] {citrus fruit,
## root vegetables,
## tropical fruit} => {other vegetables} 0.004473818 0.7857143 0.005693950 4.060694 44
## [4] {brown bread,
## other vegetables,
## root vegetables} => {whole milk} 0.003152008 0.7750000 0.004067107 3.033078 31
## [5] {butter,
## onions} => {whole milk} 0.003050330 0.7500000 0.004067107 2.935237 30
## [6] {curd,
## tropical fruit,
## yogurt} => {whole milk} 0.003965430 0.7500000 0.005287239 2.935237 39
## [7] {curd,
## domestic eggs} => {whole milk} 0.004778851 0.7343750 0.006507372 2.874086 47
## [8] {butter,
## tropical fruit,
## yogurt} => {whole milk} 0.003355363 0.7333333 0.004575496 2.870009 33
## [9] {root vegetables,
## tropical fruit,
## whipped/sour cream} => {other vegetables} 0.003355363 0.7333333 0.004575496 3.789981 33
## [10] {butter,
## curd} => {whole milk} 0.004880529 0.7164179 0.006812405 2.803808 48
## [11] {domestic eggs,
## sugar} => {whole milk} 0.003558719 0.7142857 0.004982206 2.795464 35
## [12] {other vegetables,
## root vegetables,
## tropical fruit,
## yogurt} => {whole milk} 0.003558719 0.7142857 0.004982206 2.795464 35
## [13] {baking powder,
## yogurt} => {whole milk} 0.003253686 0.7111111 0.004575496 2.783039 32
## [14] {tropical fruit,
## whipped/sour cream,
## yogurt} => {whole milk} 0.004372140 0.7049180 0.006202339 2.758802 43
## [15] {citrus fruit,
## other vegetables,
## root vegetables,
## tropical fruit} => {whole milk} 0.003152008 0.7045455 0.004473818 2.757344 31
## [16] {butter,
## pork} => {whole milk} 0.003863752 0.7037037 0.005490595 2.754049 38
## [17] {butter,
## coffee} => {whole milk} 0.003355363 0.7021277 0.004778851 2.747881 33
## [18] {domestic eggs,
## other vegetables,
## whipped/sour cream} => {whole milk} 0.003558719 0.7000000 0.005083884 2.739554 35
## [19] {root vegetables,
## tropical fruit,
## yogurt} => {whole milk} 0.005693950 0.7000000 0.008134215 2.739554 56
Además de la confianza y el soporte, existen otras métricas que permiten cuantificar la calidad de las reglas y la probabilidad de que reflejen relaciones reales. Algunas de las más empleadas son:
Lift: el estadístico lift compara la frecuencia observada de una regla con la frecuencia esperada simplemente por azar (si la regla no existe realmente). El valor lift de una regla “si X, entonces Y” se obtiene acorde a la siguiente ecuación: \[\frac{\text{soporte(union(X,Y))}}{\text{soporte(X) * soporte(Y)}}\] Cuanto más se aleje el valor de lift de 1, más evidencias de que la regla no se debe a un artefacto aleatorio, es decir, mayor la evidencia de que la regla representa un patrón real.
Coverage: es el soporte de la parte izquierda de la regla (antecedente). Se interpreta como la frecuencia con la que el antecedente aparece en el conjunto de transacciones.
Fisher exact test: devuelve el p-value asociado a la probabilidad de observar la regla solo por azar.
Con la función interestMeasure()
se pueden calcular más de 20 métricas distintas para un conjunto de reglas creadas con la función apriori()
.
metricas <- interestMeasure(reglas, measure = c("coverage", "fishersExactTest"),
transactions = transacciones)
metricas
Estas nuevas métricas pueden añadirse al objeto que contiene las reglas.
quality(reglas) <- cbind(quality(reglas), metricas)
# inspect(sort(x = reglas, decreasing = TRUE, by = "confidence"))
df_reglas <- as(reglas, Class = "data.frame")
df_reglas %>% as.tibble() %>% arrange(desc(confidence)) %>% head()
Cuando se crean reglas de asociación, pueden ser interesantes únicamente aquellas que contienen un determinado conjunto de items en el antecedente o en el consecuente. Con arules
existen varias formas de seleccionar solo determinadas reglas.
Restringir las reglas que se crean
Es posible restringir los items que aparecen en el lado izquierdo y/o derecho de la reglas a la hora de crearlas, por ejemplo, supóngase que solo son de interés reglas que muestren productos que se vendan junto con other vegetables. Esto significa que el item other vegetables, debe aparecer en el lado derecho (rhs).
soporte <- 30 / dim(transacciones)[1]
reglas_vegetables <- apriori(data = transacciones,
parameter = list(support = soporte,
confidence = 0.70,
# Se especifica que se creen reglas
target = "rules"),
appearance = list(rhs = "other vegetables"))
## Apriori
##
## Parameter specification:
## confidence minval smax arem aval originalSupport maxtime support minlen
## 0.7 0.1 1 none FALSE TRUE 5 0.00305033 1
## maxlen target ext
## 10 rules TRUE
##
## Algorithmic control:
## filter tree heap memopt load sort verbose
## 0.1 TRUE TRUE FALSE TRUE 2 TRUE
##
## Absolute minimum support count: 30
##
## set item appearances ...[1 item(s)] done [0.00s].
## set transactions ...[169 item(s), 9835 transaction(s)] done [0.00s].
## sorting and recoding items ... [136 item(s)] done [0.00s].
## creating transaction tree ... done [0.00s].
## checking subsets of size 1 2 3 4 5 done [0.00s].
## writing ... [3 rule(s)] done [0.00s].
## creating S4 object ... done [0.00s].
## set of 3 rules
##
## rule length distribution (lhs + rhs):sizes
## 4 5
## 2 1
##
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 4.000 4.000 4.000 4.333 4.500 5.000
##
## summary of quality measures:
## support confidence coverage lift
## Min. :0.003152 Min. :0.7333 Min. :0.003559 Min. :3.790
## 1st Qu.:0.003254 1st Qu.:0.7595 1st Qu.:0.004067 1st Qu.:3.925
## Median :0.003355 Median :0.7857 Median :0.004575 Median :4.061
## Mean :0.003660 Mean :0.8016 Mean :0.004609 Mean :4.143
## 3rd Qu.:0.003915 3rd Qu.:0.8357 3rd Qu.:0.005135 3rd Qu.:4.319
## Max. :0.004474 Max. :0.8857 Max. :0.005694 Max. :4.578
## count
## Min. :31.0
## 1st Qu.:32.0
## Median :33.0
## Mean :36.0
## 3rd Qu.:38.5
## Max. :44.0
##
## mining info:
## data ntransactions support confidence
## transacciones 9835 0.00305033 0.7
## lhs rhs support confidence coverage lift count
## [1] {root vegetables,
## tropical fruit,
## whipped/sour cream} => {other vegetables} 0.003355363 0.7333333 0.004575496 3.789981 33
## [2] {citrus fruit,
## root vegetables,
## tropical fruit} => {other vegetables} 0.004473818 0.7857143 0.005693950 4.060694 44
## [3] {citrus fruit,
## root vegetables,
## tropical fruit,
## whole milk} => {other vegetables} 0.003152008 0.8857143 0.003558719 4.577509 31
Esto mismo puede hacerse con el lado izquierdo (lhs) o en ambos (both).
Filtrar reglas creadas
También es posible filtrar las reglas una vez que han sido creadas. Por ejemplo, se procede a filtrar aquellas reglas que contienen other vegetables y citrus fruit en el antecedente.
filtrado_reglas <- subset(x = reglas,
subset = lhs %ain% c("other vegetables","citrus fruit"))
inspect(filtrado_reglas)
## lhs rhs support confidence coverage lift count coverage fishersExactTest
## [1] {citrus fruit,
## other vegetables,
## root vegetables,
## tropical fruit} => {whole milk} 0.003152008 0.7045455 0.004473818 2.757344 31 0.004473818 5.003096e-10
Reglas maximales
Un itemset es maximal si no existe otro itemset que sea su superset. Una regla de asociación se define como regla maximal si está generada con un itemset maximal. Con la función is.maximal()
se pueden identificar las reglas maximales.
## set of 17 rules
## lhs rhs support confidence coverage lift count coverage fishersExactTest
## [1] {baking powder,
## yogurt} => {whole milk} 0.003253686 0.7111111 0.004575496 2.783039 32 0.004575496 1.775138e-10
## [2] {butter,
## onions} => {whole milk} 0.003050330 0.7500000 0.004067107 2.935237 30 0.004067107 7.502990e-11
## [3] {domestic eggs,
## sugar} => {whole milk} 0.003558719 0.7142857 0.004982206 2.795464 35 0.004982206 1.990017e-11
## [4] {butter,
## coffee} => {whole milk} 0.003355363 0.7021277 0.004778851 2.747881 33 0.004778851 1.582670e-10
## [5] {butter,
## curd} => {whole milk} 0.004880529 0.7164179 0.006812405 2.803808 48 0.006812405 2.857678e-15
## [6] {curd,
## domestic eggs} => {whole milk} 0.004778851 0.7343750 0.006507372 2.874086 47 0.006507372 1.142131e-15
## [7] {butter,
## pork} => {whole milk} 0.003863752 0.7037037 0.005490595 2.754049 38 0.005490595 5.673757e-12
## [8] {curd,
## tropical fruit,
## yogurt} => {whole milk} 0.003965430 0.7500000 0.005287239 2.935237 39 0.005287239 1.003422e-13
## [9] {brown bread,
## other vegetables,
## root vegetables} => {whole milk} 0.003152008 0.7750000 0.004067107 3.033078 31 0.004067107 8.092894e-12
## [10] {butter,
## tropical fruit,
## yogurt} => {whole milk} 0.003355363 0.7333333 0.004575496 2.870009 33 0.004575496 2.336708e-11
Reglas redundantes
Dos reglas son idénticas si tienen el mismo antecedente (parte izquierda) y consecuente (parte derecha). Supóngase ahora que una de estas reglas tiene en su antecedente los mismos items que forman el antecedente de la otra, junto con algunos items más. La regla más genérica se considera redundante, ya que no aporta información adicional. En concreto, se considera que una regla X => Y es redundante si existe un subset X’ tal que existe una regla X’ => Y cuyo soporte es mayor.
X => Y es redundante si existe un subset X’ tal que: conf(X’ -> Y) >= conf(X -> Y)
## set of 0 rules
Para este ejemplo no se detectan reglas redundantes.
Transacciones que verifican una determinada regla
Una vez identificada una determinada regla, puede ser interesante recuperar todas aquellas transacciones en las que se cumple. A continuación, se recuperan aquellas transacciones para las que se cumple la regla con mayor confianza de entre todas las encontradas.
# Se identifica la regla con mayor confianza
as(reglas, "data.frame") %>%
arrange(desc(confidence)) %>%
head(1) %>%
pull(rules)
## [1] "{citrus fruit,root vegetables,tropical fruit,whole milk} => {other vegetables}"
Las transacciones que cumplen esta regla son todas aquellas que contienen los items: citrus fruit, root vegetables, tropical fruit, whole milk y other vegetables.
filtrado_transacciones <- subset(x = transacciones,
subset = items %ain% c("citrus fruit",
"root vegetables",
"tropical fruit",
"whole milk",
"other vegetables"))
filtrado_transacciones
## transactions in sparse format with
## 31 transactions (rows) and
## 169 items (columns)
## items transactionID
## [1] {berries,
## bottled water,
## butter,
## citrus fruit,
## hygiene articles,
## napkins,
## other vegetables,
## root vegetables,
## rubbing alcohol,
## tropical fruit,
## whole milk} 596
## [2] {bottled water,
## citrus fruit,
## curd,
## dessert,
## frozen meals,
## frozen vegetables,
## fruit/vegetable juice,
## grapes,
## napkins,
## other vegetables,
## pip fruit,
## root vegetables,
## specialty chocolate,
## tropical fruit,
## UHT-milk,
## whipped/sour cream,
## whole milk} 1122
## [3] {beef,
## beverages,
## butter,
## candles,
## chicken,
## citrus fruit,
## cream cheese,
## curd,
## domestic eggs,
## flour,
## frankfurter,
## ham,
## hard cheese,
## hygiene articles,
## liver loaf,
## margarine,
## mayonnaise,
## other vegetables,
## pasta,
## roll products,
## rolls/buns,
## root vegetables,
## sausage,
## skin care,
## soft cheese,
## soups,
## specialty fat,
## sugar,
## tropical fruit,
## whipped/sour cream,
## whole milk,
## yogurt} 1217
sesion_info <- devtools::session_info()
dplyr::select(
tibble::as_tibble(sesion_info$packages),
c(package, loadedversion, source)
)
Practical Data Science with R by Nina Zumel and John Mount, Foreword by Jim Porzak
Michael Hahsler, Kurt Hornik, and Thomas Reutterer (2006) Implications of probabilistic data modeling for mining association rules. In M. Spiliopoulou, R. Kruse, C. Borgelt, A. Nuernberger, and W. Gaul, editors, From Data and Information Analysis to Knowledge Engineering, Studies in Classification, Data Analysis, and Knowledge Organization, pages 598–605. Springer-Verlag.
Mining Frequent Patterns and Association Rules from Biological Data Ioannis Kavakiotis, George Tzanis, Ioannis Vlahavas
¿Cómo citar este documento?
Reglas de asociación y algoritmo Apriori con R por Joaquín Amat Rodrigo, disponible con licencia CC BY-NC-SA 4.0 en https://www.cienciadedatos.net/documentos/43_reglas_de_asociacion
¿Te ha gustado el artículo? Tu ayuda es importante
Mantener un sitio web tiene unos costes elevados, tu contribución me ayudará a seguir generando contenido divulgativo gratuito. ¡Muchísimas gracias! 😊
Este material, creado por Joaquín Amat Rodrigo, tiene licencia Attribution-NonCommercial-ShareAlike 4.0 International.
Se permite:
Compartir: copiar y redistribuir el material en cualquier medio o formato.
Adaptar: remezclar, transformar y crear a partir del material.
Bajo los siguientes términos:
Atribución: Debes otorgar el crédito adecuado, proporcionar un enlace a la licencia e indicar si se realizaron cambios. Puedes hacerlo de cualquier manera razonable, pero no de una forma que sugiera que el licenciante te respalda o respalda tu uso.
NoComercial: No puedes utilizar el material para fines comerciales.
CompartirIgual: Si remezclas, transformas o creas a partir del material, debes distribuir tus contribuciones bajo la misma licencia que el original.