Árbol de decisión

Un árbol de decisión (decision tree) es un método de análisis que se usa para discriminar información en función de atributos (variables) con un grado de significancia determinada , lo que permitirá identificar la estrategia más apropiada y lograr la eficiencia en el trato que se dará al cliente en curso. Para ellos se genera un grafo (árbol) y sus posibles consecuencias asociando a cada una de ellas la probabilidad que ocurra.

El árbol de decisión usa conjuntamente técnicas de minería de datos (Data Mining, DM) y aprendizaje automático para crear un modelo predictivo, esto es, relacionar las observaciones con las conclusiones. Dentro de los árboles de decisión hay varios tipos (de clasificación, de regresión, etc), cada uno de ellos sirve para un determinado objetivo. En todos estos tipos de árboles las hojas representan la clasificación y las ramas representan conjunciones de características.

NO - (Entonces hacer: Desarrollar y difuminar en párrafo)

Características

  • La decisión sigue un único camino hasta tomar la decisión.
  • No es posible cuánto de adecuada es una decisión tomada.
  • Necesita muchos criterios para tomar una decisión

Crear otro árbol relacionado con el dominio

arbol_de_decison.jpg

rbol-decisión.png
Ejemplo de árbol de decisión que permite decidir si se oferta un determinado producto a un determinado cliente.


Árbol de decisión alternativo


Un árbol de decisión alternativo (ADTree) es un método de clasificación. Se comportan como una generalización de los árboles de decisión anteriormente explicados.

Su funcionamiento es similar al de un árbol de decisión, pero contiene algunas modificaciones que aportan mas flexibilidad y mejores características que un árbol de decisión. De tal forma que en cada momento se evalúan alguna de las características de la muestra pero no siempre en el mismo orden ya que no siempre tendrá sentido evaluar todas las características de la muestra dependiendo de sus valores. Además tras cada evaluación se le asigna un valor heurístico. La suma de todos los valores heurísticos o cualquier otra combinación lineal proporciona una medida cuantitativa de la bondad de la muestra. . Se establecen intervalos (tranchas) para clasificar los valores de atributos continuos (edad, salario, saldo de cuenta corriente) De este modo se establecen intervalos como valores que permitan preguntar por si los valores corresponden a un intervalo u otro. También es significativo poder definir comportamientos o pesos no absolutos (1 ó 0), sino valores que corresponden a una ecuación lineal, ya que el poder dar un valor al extremo de un intervalo en cierto modo debe mostrar su cercanía al valor del intervalo contiguo.
Además y lo más importante para el proyecto es que a cada clase, en nuestro caso sería se le podría asignar a un conjunto de acciones que podrán ser aplicadas de acuerdo a otros criterios del cliente concreto.

NO - (entonces hacer: Desarrollar y difuminar en párrafo) -- hacer breve comentario entre DTree y ADTree

Características

  • La decisión puede seguir más de un camino hasta tomar la decisión.
  • Proporciona una heurística de la bondad de la muestra suministrada.
  • El número de criterios para tomar una decisión depende de las características de la muestra.


Crear otro árbol relacionado con el dominio
rbol-decisión-alternativo.png
Ejemplo Ejemplo de un árbol de decisión alternativo que permite obtener una puntuación, evaluando así cómo de apto es el cliente para una determinada acción.


Unos de los objetivos del CRMI es aumentar los beneficios de la empresa en la que se implanta. Esto es posible por la clasificación de los clientes en grupos. Y a cada uno de los grupos tomar acciones concretas para sacar el máximo beneficio. Como ejemplo clásico e ilustrativo se propone la siguiente clasificación de los clientes, en 4 grupos. En un ejemplo práctico esta aproximación grosso modo podría valer, aunque a posteriori, cada subgrupo y dependiendo del campo de negocio de la empresa podrían aparecer nuevas clasificaciones y políticas. Centrándonos en el ejemplo, el conjunto de clientes se particiona en 4 posibles grupos, aunque el objetivo ideal es que los clientes acaben solo en 2 grupos, el grupo que maximiza la fidelidad y rentabilidad o aquel que la minimiza en cuyo caso dichos clientes la empresa los catalogaría como no deseables y tratará de que dejen de formar parte de los clientes de la empresa ya que no traerán mas que problemas y malos resultados. Entre el blanco y el negro existe una gran variedad de grises correspondiente a los otros 2 grupos aquel en que los clientes son fieles pero no rentables, por lo que habría que proponer acciones para estimular su rentabilidad y el otro grupo compuesto por clientes rentables pero no fieles cuyo objetivo sea aumentar su fidelidad mediante las acciones correspondientes.
En la figura 4.7 se muestra un diagrama de los 4 grupos con unas pequeñas leyendas de las estrategias a seguir para cada clase. Los círculos de color negro representan clientes concretos. Además se incorporan flechas que indican el movimiento de los clientes a través del espacio bidimensional en función de las variables fidelidad y rentabilidad. Como se puede notar las flechas conducen a los clientes a 2 grupos como se comento anteriormente.


Exploración-CRM.png
Explotación CRMI





http://www.cs.ucsd.edu/~aarvey/jboost/presentations/BoostingLightIntro.pdf
http://en.wikipedia.org/wiki/Decision_tree
http://en.wikipedia.org/wiki/Alternating_decision_tree