Arbol de decisiones

Arbol de decisiones

Definición de árbol de decisión

Un árbol de decisión es una herramienta de apoyo a la toma de decisiones que utiliza un modelo en forma de árbol de las decisiones y sus posibles consecuencias, incluyendo los resultados de los eventos de azar, los costes de los recursos y la utilidad. Es una forma de mostrar un algoritmo que sólo contiene declaraciones de control condicional.

Un árbol de decisión es una estructura similar a un diagrama de flujo en el que cada nodo interno representa una “prueba” sobre un atributo (por ejemplo, si una moneda sale cara o cruz), cada rama representa el resultado de la prueba y cada nodo de la hoja representa una etiqueta de clase (decisión tomada después de calcular todos los atributos). Los caminos de la raíz a la hoja representan las reglas de clasificación.

En el análisis de decisiones, un árbol de decisión y el diagrama de influencia, estrechamente relacionado, se utilizan como herramienta visual y analítica de apoyo a la decisión, donde se calculan los valores esperados (o la utilidad esperada) de las alternativas que compiten entre sí.

Los árboles de decisión se utilizan habitualmente en la investigación y gestión de operaciones. Si, en la práctica, las decisiones tienen que tomarse en línea sin memoria y con un conocimiento incompleto, un árbol de decisión debería ir en paralelo con un modelo de probabilidad como modelo de mejor elección o algoritmo de modelo de selección en línea[cita requerida] Otro uso de los árboles de decisión es como medio descriptivo para calcular probabilidades condicionales.

  Boj arbol

Clasificador de árbol de decisión

Un árbol de decisión suele comenzar con un único nodo, que se ramifica en posibles resultados. Cada uno de esos resultados conduce a otros nodos, que se ramifican en otras posibilidades. Esto le da una forma de árbol.

Hay tres tipos diferentes de nodos: nodos de azar, nodos de decisión y nodos finales. Un nodo de azar, representado por un círculo, muestra las probabilidades de ciertos resultados. Un nodo de decisión, representado por un cuadrado, muestra una decisión que hay que tomar, y un nodo final muestra el resultado final de una ruta de decisión.

A partir de cada nodo de decisión, dibuja las posibles soluciones. A partir de cada nodo de azar, dibuje líneas que representen los posibles resultados. Si pretendes analizar las opciones numéricamente, incluye la probabilidad de cada resultado y el coste de cada acción.

  Mario odyssey reino arbolado

3. Continúa ampliando hasta que cada línea llegue a un punto final, lo que significa que no hay más opciones que tomar o resultados de azar que considerar. A continuación, asigna un valor a cada resultado posible. Puede ser una puntuación abstracta o un valor económico. Añade triángulos para indicar los puntos finales.

Árbol de decisión sklearn

clf = clf.fit(X, y)Así podemos entrenar un árbol de decisión de forma relativamente sencilla definiendo la variable de entrada X y las clases Y a predecir, y entrenando el árbol de decisión de Skicit-Learn sobre ellas. Con la función “predict_proba” y unos valores concretos, se puede hacer entonces una clasificación:# Predecir clase para valores artificiales

array([[1., 0., 0.]])Así que esta flor con los valores inventados pertenecería a la primera clase según nuestro Árbol de Decisión. Este género se llama “Iris Setosa”.¿Cómo interpretar los Árboles de Decisión? Con la ayuda de MatplotLib, se puede dibujar el árbol de decisión entrenado.# Importar Módulos

Algoritmo de árbol de decisión

El particionamiento recursivo es una herramienta fundamental en la minería de datos. Nos ayuda a explorar la estructura de un conjunto de datos, al tiempo que desarrolla reglas de decisión fáciles de visualizar para predecir un resultado categórico (árbol de clasificación) o continuo (árbol de regresión). Esta sección describe brevemente el modelado CART, los árboles de inferencia condicional y los bosques aleatorios.

  Bolas arbol

Los árboles de clasificación y de regresión (descritos por Brieman, Freidman, Olshen y Stone) pueden generarse mediante el paquete rpart. Encontrará información detallada sobre rpart en An Introduction to Recursive Partitioning

parámetros opcionales para controlar el crecimiento del árbol. Por ejemplo, control=rpart.control(minsplit=30, cp=0.001) requiere que el número mínimo de observaciones en un nodo sea 30 antes de intentar una división y que una división debe disminuir la falta de ajuste global en un factor de 0,001 (factor de complejidad del coste) antes de ser intentada.

Específicamente, utilice printcp( ) para examinar los resultados de error de validación cruzada, seleccione el parámetro de complejidad asociado con el error mínimo y colóquelo en la función prune( ). Como alternativa, puede utilizar el fragmento de código

Esta web utiliza cookies propias para su correcto funcionamiento. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad